L’IA en entreprise : des relations prometteuses, sous conditions

Le 18 octobre 2023 |

Les intelligences artificielles dites Large Language Models, dont la plus connue est ChatGPT, sont en train de percer, y compris dans le monde professionnel. Leur capacité à répondre en langage naturel donne l’impression de converser avec un humain, et la précision de certaines réponses peut laisser croire que l’IA est infaillible. De quoi en faire oublier les limites et les dangers. Pour profiter pleinement du potentiel de cette innovation difficile à ignorer, l’entreprise doit dès aujourd’hui se pencher sur ses usages.

En près d’un an, entre juin 2022 et mai 2023, plus de 100 000 comptes ChatGPT d’Open AI ont été piratés, y compris en France. Aux États-Unis, dans le cadre d’un procès contre une compagnie aérienne, le juge a démontré que six cas mentionnés dans le mémoire juridique d’un avocat étaient constitués de citations et références imaginaires. Ils avaient été suggérés à l’avocat par ChatGPT. Ces exemples démontrent à quel point l’utilisation de cette intelligence artificielle, pour autant qu’elle soit simple, pratique, ludique, ne peut être prise à la légère. Est-ce à dire qu’il faut la bannir de l’entreprise ?

« Chez Mazars, l’utilisation de ChatGPT est actuellement bloquée. Nous sommes un tiers de confiance, la confidentialité des données est de notre devoir, or celle-ci n’est pas assurée par ChatGPT. Néanmoins, le monde professionnel est en pleine expérimentation avec l’IA. À mesure que son usage sera encadré et formalisé, de nouvelles possibilités d’utilisation s’ouvriront pour l’entreprise. Nous ne pensons pas qu’il faille tout simplement ignorer cette innovation, mais plutôt chercher à la sécuriser », répondent Mathilde Le Coz, DRH et Directrice de l’innovation RH chez Mazars, et Laurent Inard, associé et membre du Conseil de surveillance de Mazars en France.

Le rythme d’adoption de ChatGPT dans le monde professionnel ne devrait en effet pas être homogène, car les secteurs font face à des défis différents. Ainsi, les métiers de la créativité n’ont pas les mêmes limitations que ceux qui subissent des contraintes réglementaires, pour lesquels tout reste à construire en matière de recours à l’IA. Certes, une réglementation est en cours d’adoption au niveau de l’Union Européenne, l’AI Act, mais son approbation par le Parlement européen ne marque qu’une première étape. En attendant, l’entreprise peut déjà se saisir de ce sujet, pour se protéger des dérives de l’IA comme pour profiter de son potentiel.

Le rôle clé des RH pour encadrer l’IA

« L’intelligence artificielle peut aider dans bien des métiers, il ne faut donc pas chercher à l’interdire, mais plutôt apporter une indispensable éducation sur ses possibilités et ses dangers, tout comme cela est déjà fait sur les risques liés à la cybersécurité », explique Mathilde Le Coz, qui souligne le rôle central des ressources humaines dans cette pédagogie, qui peut se traduire par des formations dispensées aux collaborateurs. « Outre cet aspect de gestion des risques, il ne faut pas non plus négliger le cadre éthique. Nous conseillons de rédiger une charte éthique ou un code de bonne conduite autour de l’IA », ajoute Laurent Inard. Si, à première vue, l’intelligence artificielle peut sembler impartiale, il ne faut pas oublier que cette technologie est avant tout créée par des hommes. Cela implique donc qu’elle embarque les possibles biais – conscients ou non – des concepteurs.

« Dans le recrutement, l’intelligence artificielle est déjà utilisée, par exemple pour concevoir des jeux qui sont des tests cognitifs. Il est probable que son utilisation s’élargisse avec les possibilités de ChatGPT et c’est exactement le type de domaine où la plus grande prudence sera nécessaire quant à ces biais. Je crois aux « RH augmentées » grâce à l’IA, tant que celle-ci fait l’objet de contrôle et vérification par l’humain », illustre Mathilde Le Coz. Le recrutement n’est pas le seul aspect des ressources humaines que l’IA va bouleverser. Puisque ces dernières sont aussi responsables de la gestion des carrières, va immanquablement se poser la question de l’évaluation des compétences. « Le recours à l’IA questionne ce qui va rester de l’individu dans la tâche produite », confirme Mathilde Le Coz, qui réfléchit déjà à tous ces sujets. 

Faire de l’IA une compétence

Avoir un usage sécurisé et éthique de ChatGPT est donc la première brique à poser face à la déferlante de l’IA. Mais ce n’est pas la seule. « Les compétences de ChatGPT dépassent ce qui avait été imaginé. Mais il n’est pas si simple de tirer le meilleur de cet outil, il ne faut pas croire que poser une question suffise, alerte Laurent Inard. Il faut maîtriser l’outil et non se faire maîtriser par lui. ». Il cite par exemple le fait de procéder par étapes pour faire progresser l’IA dans le raisonnement, une méthode nommée chain of thought prompting, ou encore le fait d’alimenter ChatGPT en exemples pour le guider, le few shot prompt. « Toutefois, ces méthodes mêmes sont appelées à évoluer car les IA progressent rapidement, d’où l’importance d’une certaine curiosité et de la formation ».

Si ces compétences en « conversation » avec ChatGPT ne sont pas encore demandées aux candidats lors des entretiens d'embauche, les deux experts s’attendent toutefois à ce que ce « soft skill » soit de plus en plus recherché à l’avenir. Sans pour autant, bien sûr, remplacer les qualités humaines.

« L’expertise technique ne fait qu’accroître l’indispensable compétence humaine. Cultiver notre humanité est plus que jamais nécessaire, pour nous distinguer de la machine comme pour s’assurer que nous en avons un usage éthique. Le vrai défi de l’IA est sous doute plus philosophique que technologique. »

Article de la série Transformations durables, réalisée par Mazars en partenariat avec La Tribune.  

Auteurs