Hello Bank, la banque en ligne de BNP Paribas, prépare activement une nouvelle relation client plus empathique et plus simple à grande échelle. La banque travaille sur une nouvelle version d’HelloïZ, son assistant conversationnel, qui répond à ses clients en ligne, en mode chat écrit. La nouvelle version fait appel à l’IA générative délivrée par la startup Mistral, partenaire de BNP Paribas.
Gérer la croissance des clients et libérer du temps commercial pour les conseillers
L’assistant conversationnel est un canal clé pour la banque et son automatisation est stratégique afin d’alléger la tâche de ses téléconseillers et leur libérer du temps pour le commercial. De plus, ce chat doit permettre de gérer la croissance du nombre de clients sans devoir augmenter le nombre de téléconseillers au même rythme.
La banque gère actuellement 200 000 interactions avec ses clients chaque mois, dont un quart via le chat. Après un test auprès de 100 clients ambassadeurs, le nouvel assistant sera mis entre les mains de 10 000 personnes, collaborateurs de BNP Paribas, le mois prochain. Puis, l’assistant sera déployé auprès des clients de Hello Bank. La banque en ligne procédera par tranches de 200 000 clients, afin d’équiper son million de clients d’ici la fin de l’année.
Le passage par un test auprès des collaborateurs de BNP Paribas s’explique pour des raisons de sécurité et de vérification de la validité des réponses de l’IA générative afin d’éviter les « hallucinations », c’est à dire ces réponses qui paraissent justes mais qui sont des inventions de l’IA.

Des temps de réponse trop longs actuellement
A ce stade, le nouvel assistant présente des temps de réponse encore élevés de l’ordre de 15 à 20 secondes, les réponses fournies étant vérifiées par une couche d’IA supplémentaire et le nombre de processeurs GPU de Nvidia employés restant limité au vu de leur coût. « Nous avons beaucoup de sécurité et peu de GPU. C’est donc un peu lent » explique Bertrand Cizeau, directeur d’Hello bank France.
Le nouvel assistant d’Hello Bank animé par une IA générative présente cependant de sérieux atouts. Tout d’abord, il montre de l’empathie avec son interlocuteur lors de la conversation. « C’est quelque chose de nouveau » souligne le DG. L’assistant se montre par exemple désolé si le client déclare avoir perdu sa carte bancaire. « Cela peut paraître ne pas être grand-chose, mais en fait, c’est essentiel. C’est-à-dire que d’un coup, le robot me comprend et, quelque part, il est en empathie avec moi-même. Et directement derrière, il fait la réponse courte et précise sur ce qu’il y a à faire » souligne-t-il.
Autre avantage, l’assistant conserve le contexte des échanges et comprend les références entre les différents propos tenus par le client car il sait faire le lien avec ce qui lui a déjà été dit. Cela évite de devoir répéter les mêmes informations à chaque question. La relation semble quasiment humaine en comparaison de la version actuelle de l’assistant conversationnel, qui fonctionne à la façon d’une FAQ (Foire aux questions), à la fois froide et factuelle.
L’assistant actuel fonctionne à partir d’une base de 600 questions/réponses
De plus, l’assistant par IA générative donne sa réponse directement sans devoir poser une série de questions comme l’assistant actuel qui veut être certain d’avoir bien compris la question pour la mettre face à la bonne réponse. L’assistant actuel destiné à être remplacé s’appuie sur une FAQ comme c’est le cas chez de nombreuses entreprises. « Cette FAQ est une base de connaissances. Nous avons 600 réponses pré-écrites chez Hello Bank. Nous avons énormément soigné la qualité de cette base de connaissances » précise le DG.
Le nouvel assistant virtuel fonctionne de façon totalement différente. « L’assistant fait quelque chose de totalement différent puisqu’il ne va pas chercher une réponse. Il la génère » rappelle le DG. La FAQ a cependant de l’avenir car elle sera mobilisée pour travailler de concert avec l’IA générative et servir de garde fou au nouvel assistant.
A ce stade, le nouvel assistant animé par IA générative est purement conversationnel et non transactionnel. Le groupe BNP Paribas entend mutualiser les besoins de ses différentes banques et métiers autour d’un assistant conversationnel et transactionnel motorisé par IA générative. Cet assisant est appelé l’AVM, l’Assistant Virtuel Mutualisé, et il a comme cible de gérer le conversationnel et le transactionnel. BNP Paribas n’annonce pas de calendrier sur cet AVM.
Le chat représente un quart des interactions avec les clients
L’assistant conversationnel est une brique essentielle dans la gestion des interactions avec les clients. Hello Bank s’appuie également sur une équipe de 200 conseillers basés à Lille et Mérignac. La banque en ligne est contactée par mail, les réseaux sociaux, la voix et le chat. Ce dernier représente un quart des sollicitations. « C’est le canal qui progresse le mieux et c’est celui qui est de plus en plus apprécié par nos clients » indique le DG.
En s’appuyant sur des tests auprès des collaborateurs de BNP Paribas, l’objectif est de pouvoir alléger les niveaux de sécurité sans prendre trop de risques afin d’obtenir des temps de réponse entre 3 et 8 secondes, au lieu de 15 à 20 secondes actuelles. « Nous allons modifier un peu la mécanique du modèle pour alléger les niveaux de sécurité. Nous travaillons avec la société Giskard [startup spécialisée dans le test des IA génératives] pour tous les sujets de gestion des hallucinations, mais il faut que l’on progresse dans la mécanique du modèle et donc nous allons démarrer avec des collaborateurs par sécurité » commente le DG.
Afin de faire progresser la vitesse de réponse, Hello Bank va également passer en mode streaming dans son usage de l’IA, c’est-à-dire que le chatbot commencera à répondre pendant qu’il réfléchit, ce qui fait que l’on obtient la réponse plus rapidement.
Montée en charge de l’IA générative grâce à la FAQ de Hello bank
L’usage de la FAQ et de la base de connaissances de 600 questions/réponses de Hello Bank doit permettre à la banque en ligne de passer son assistant virtuel à l’échelle. « Si vous n’êtes que sur de l’IA générative, c’est très consommateur de CPU et de temps. Et la meilleure manière de mieux sécuriser effectivement les réponses, c’est à un moment donné de basculer sur ce que sait très bien faire l’IA classique avec la base documentaire et de sécuriser les réponses » détaille le DG.
« Cela fait à la fois gagner du temps parce que vous évitez de solliciter les LLM [grands modèles de langages] trop de fois, et c’est aussi un générateur d’économie et cela fabrique de la sécurité. Donc, c’est vraiment le mélange des deux qui, en l’état actuel des technologies, nous semble être le bon cheminement » dit-il, sachant que lorsque l’IA générative ne sait pas répondre, elle bascule le client vers un conseiller. « Cela nous semble être le meilleur cheminement entre le coût, la vitesse pour le client et la sécurité, c’est le bon mix et une évolution aussi vers la manière dont on construit le modèle et le nombre de fois que l’on sollicite les LLM » conclut-il.