BNP Paribas : la gestion des hallucinations de l’IA générative est un très gros enjeu

Su Yang, Head of AI for transaction banking and Head of AI and IT Innovation de BNP Paribas

BNP Paribas, premier groupe bancaire européen, se mobilise afin de mettre en œuvre l’IA et l’IA générative au service de tous ses métiers. Dans cette voie, le groupe est conscient de la nécessité d’encadrer l’IA et en particulier de traiter les failles de l’IA générative que sont les hallucinations. C’est-à-dire ces moments où l’IA délivre des résultats qui semblent pertinents mais qui en réalité sont faux.


L’humain doit rester dans la boucle des IA génératives

Su Yang, Head of AI for transaction banking and Head of AI and IT Innovation de BNP Paribas détaille sa démarche afin de contrer ce défaut des IA génératives. L’humain doit rester dans la boucle afin de contrôler les résultats de l’IA quelque soit les dispositifs mis en place. Pour cela, les collaborateurs doivent être formés. Su Yang a pris la parole le 15 janvier à l’occasion d’un événement organisé par Impact AI.



Le responsable affronte la question des hallucinations. « Il y a de nouvelles problématiques [avec les IA génératives] comme les hallucinations. Lorsque les modèles d’IA générative se trompent, comment est-ce qu’on peut mettre en place des protocoles de modération pour s’assurer qu’on arrive à gérer les hallucinations dans les processus que l’on met en place ? » indique-t-il.  

Un très gros enjeu depuis la sortie de ChatGPT


Cette question date de l’émergence de ChatGPT d’OpenAI en fin d’année 2023. « La gestion des hallucinations est un très gros enjeu depuis la sortie de ChatGPT » reconnaît le responsable. « C’est quelque chose sur lequel on met en place des protocoles de contrôle, et on raffine un petit peu tout le dispositif dont nous disposons, pour s’assurer que l’on arrive à gérer les hallucinations dans les systèmes où l’IA générative est présente » dit-il.

Dans ce paysage, l’humain est clé et doit être formé en conséquence face aux nouveaux risques qu’entraîne l’IA générative. « La formation est un volet très important. Si je reprends la gestion de l’hallucination, on peut mettre en place des outils, mais ce ne sera jamais sans risque » insiste-t-il. « C’est la raison pour laquelle nous avons besoin des humains dans les systèmes d’IA qui soient bien vigilants Pour être en capacité de détecter les moments où l’IA se trompe, il faut que l’expert continue de garder l’expertise » résume-t-il.

Une double compétence nécessaire

Les experts doivent rester aux commandes. « Plus les réponses que l’on attend sont sophistiquées, plus il faut que les experts soient bons dans leur domaine afin de pouvoir repérer les moments où les IA se trompent » recommande-t-il. De plus, il faut que l’expert soit bien conscient de tous les biais par lesquels l’IA peut se tromper. « Il s’agit donc d’une double compétence » dit-il.

Les biais dans les données sont également un défi que Su Yang entend traiter. « Nous sommes une entreprise qui est très orientée clients, et nous devons faire en sorte que les systèmes d’IA que nous développons puissent remédier à ces problématiques présentes nativement dans les données que nous collectons » affirme-t-il.

Protéger les données des clients

Il faut dire que les employés de BNP Paribas ont des attentes très fortes. « Tous les jours, j’ai des discussions autour de ce qu’on met en place pour les aider à s’emparer de ces outils [d’IA], à se prévenir des problématiques liées à une mauvaise utilisation de données, et de manière générale à protéger les données de nos clients qui nous le confient et s’attendent à ce qu’on prenne soin » rappelle-t-il.

Pour cela, la banque a mis en place des mesures concrètes. « D’abord, des normes de transparence, de reproductibilité et d’explicabilité dans les modèles [d’IA] que nous développons pour nous assurer que l’on veille à la protection des données personnelles de nos clients, et que nos clients puissent avoir une bonne maîtrise de l’usage qu’on en fait » présente-t-il. De plus, des directives sont dédiées aux experts qui créent les systèmes d’IA afin de s’assurer qu’ils comprennent comment manager les biais qui peuvent être présents dans les données. « Les sensibiliser, leur donner des outils, leur apprendre comment faire » liste Su Yang en forme de conclusion.

3000 spécialistes de l’IA et de la donnée dans la banque

BNP Paribas organise un événement annuel qui cumule tous les échanges entre les utilisateurs et les experts de l’AI où 4000 utilisateurs participent afin d’échanger sur toutes les initiatives et tout ce qui est mis en place dans les différents métiers. BNP Paribas emploie 3000 spécialistes de l’intelligence artificielle et de la donnée, 700 Data scientistes et Business Analysts spécialistes de l’intelligence artificielle. La banque a 750 cas usages, à peu près dans tous ses métiers (une douzaine de grands métiers) et dans toutes les fonctions (les risques, la conformité, etc.).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *




L'événement digital

Les incidents cyber en tête des craintes des entreprises en 2025 selon l’assureur Allianz
Les incidents cyber et informatiques préoccupent les entreprises en France

Les incidents cyber en tête des craintes des entreprises en 2025 selon l’assureur Allianz

Les incidents cyber, en particulier les violations de données, sont les risques les plus préoccupants pour les grandes, moyennes et …