CP mai 2022 | Étude Mazars réalisée en partenariat avec l’institut de sondages CSA « Les Français et l’intelligence artificielle »

Le contrôle externe périodique pourrait réduire de moitié le pourcentage de Français encore réticents à l’utilisation des algorithmes d’intelligence artificielle.
• 81% des Français ont déjà entendu parler des algorithmes d’IA
• 58% des sondés affirment que l’intervention de l’IA est une bonne chose
• 100% des risques de l’IA soumis aux Français sont cotés au-delà de 7/10
• Les Français seraient manifestement plus rassurés par un dispositif de contrôle externe périodique, réduisant la population sceptique de 40% à 26%

Paris, 12 mai 2022 – Mazars, groupe international spécialisé dans l’audit, la fiscalité et le conseil, vient de publier, en partenariat avec l’institut de sondages CSA, une étude sur la notoriété et l’image des algorithmes d’intelligence artificielle (IA) auprès du grand public.

Cette étude souligne l’intérêt et l’ouverture des Français à l’utilisation des algorithmes d’intelligence artificielle qui y voient, entre autres, des perspectives positives au niveau des grands enjeux sociétaux.

Cependant, malgré ce regard positif vis-à-vis de l’IA, une forte inquiétude persiste quant aux risques que représente cette technologie, notamment en termes de cyber-piratage, d'atteinte à la vie privée, de risques relatifs à l’équité et à la compréhension des résultats de l’IA, à la perte de contrôle et la responsabilité, ou encore aux transferts de données personnelles non autorisés ou abusifs.

Ces risques mettent en avant le besoin de transparence et la nécessité d’absence de biais sous toutes ses formes, comme celui de l’équité́ et de la non-discrimination, des biais qui peuvent requérir l’accès à la compréhension des résultats, c’est-à-dire leur « explicabilité ».

Les biais d’équité et d’explicabilité : deux leviers stratégiques mais complexes 

En dehors des risques les plus communément identifiés, sensibiliser le grand public aux biais d’équité et d’explicabilité pourrait accentuer la bienveillance des Français vis-à-vis de cette technologie.

En matière d’équité par exemple, l’IA présente des risques importants de réplication, propagation et renforcement des disparités, peu aisés à détecter et dont la mise sous contrôle s’avère dans les faits très complexe. Pourtant, inversement, l’IA peut constituer un outil formidable au service de l’équité et de la non-discrimination puisque, sous contrôle, elle n’est pas affectée par les biais humains (risques de familiarité́, d’empathie sélective, d’administration différenciée selon les agents, etc.). L’IA peut ainsi être plus précise et mieux adaptée individuellement que les systèmes métiers usuels.

Par ailleurs, dans la mesure où les décisions ou recommandations de l’IA ne sont pas issues de l’application d’un système de règles préalablement décrites par les humains, ses décisions sont de facto moins directement compréhensibles. L’explicabilité des résultats d’un algorithme est donc une nouvelle difficulté à surmonter pour les opérateurs de l’IA, qui doivent faire preuve de transparence s’ils veulent réduire l’asymétrie d’informations face à l’IA.

Le contrôle externe périodique : la solution considérée comme la plus efficace pour modérer les risques de l’IA et ôter la part d’ombre persistante

L’étude montre que les Français ne croient pas beaucoup aux procédures d’autocontrôle. 40% des interrogés trouvent le dispositif peu, voire, pas du tout efficace.

A l’inverse, 74% des Français pensent qu’un dispositif de contrôle périodique réalisé par un organisme indépendant est le moyen le plus efficace pour limiter les risques liés à l’IA.

La transparence (par publication) dans les mesures de contrôle interne est appréciée mais n’est pas considérée aussi efficace, tout comme la désignation d’une Autorité́ de supervision nationale indépendante, perçue par les Français comme moyennement efficace, mais qui peut certainement être utile dès lors qu’elle n’est pas le seul moyen mis en place.

En conclusion, les risques liés à l’IA sont autant de freins à une adhésion massive par le grand public à l’utilisation des algorithmes d’intelligence artificielle. Si ces risques sont « maitrisés » par des contrôles externes indépendants, le nombre de sceptiques pourrait passer de 40 à 26%. Ne reste qu’à identifier à quoi pourraient ressembler ces contrôles et à la façon de les mettre en œuvre :« Si les grilles, propositions de cribles et d’outils commencent à faire florès, ‘le’ référentiel d’audit des algorithmes reste à construire. L’audit doit combiner revues de procédures et d’organisation, intégrer le caractère évolutif de l’IA durant son cycle de vie, et doit faire usage de tests statistiques complexes et d’algorithmes de détection : à cet égard, la combinaison des expertises en matière d’audit et de data science est donc clé. » précise Laurent Inard, Associé Data Services au sein de Mazars.

###

Méthodologie

Pour comprendre de quelle manière l’IA est perçue par le grand public, Mazars et CSA ont sondé un échantillon national représentatif de 1 005 personnes âgées de 18 ans ou plus à partir d’un questionnaire autoadministré en ligne entre le 1er et le 4 mars 2022. Cet échantillon s’appuie sur la méthode des quotas basée sur le sexe, l’âge, la profession de la personne interrogée après stratification par région et catégorie d’agglomération.

###

Contacts presse

Agence Shan pour Mazars

mazars@shan.fr

Plus d’infos ?

Document

CP - Les Français et l'IA