A La Poste, les sponsors des projets Data doivent connaître leur rôle

Pierre-Etienne Bardin, Chief Data Officer & Head of Analytics du groupe La Poste

La Poste a lancé un vaste effort pour acculturer son organisation et son personnel aux enjeux de la Data et de l’IA. Elle veut doter rapidement ses métiers d’outils afin de faciliter leur travail. L’IA générative s’inscrit dans cette démarche et à donné naissance à une IA de type RAG modulaire, LaPosteGPT, testée en internet. L’IA générative n’est pas encore assez fiable pour être proposée aux clients.

Créée par Louis XI il y a 6 siècles, La Poste doit se réinventer et créer de nouvelles activités afin de contrer la baisse du courrier physique. En ce sens, le digital est à la fois une malédiction et une opportunité pour le groupe.  


C’est ce qu’explique Pierre-Etienne Bardin, Chief Data Officer & Head of Analytics du groupe La Poste. « Nous avons pris le digital et la data comme une opportunité de créer de nouveaux Business Models. Nous y avons travaillé sérieusement depuis une dizaine d’années avec nos équipes internes et procédé à des acquisitions afin d’accélérer cette montée en compétences. » Les acquisitions de ProbaYes puis d’OpenValue ont renforcé le groupe en matière de compétences Data Sciences et en IA.


Un groupe qui brasse énormément de données

Le groupe La Poste réunit des métiers extrêmement diversifiés avec pour chacun d’eux des données disponibles en très grosses volumétries, ce qui est potentiellement intéressant pour développer des IA. « Nous sommes à la fois une banque, un assureur, un logisticien, un retailer dans nos bureaux de poste. Nous sommes acteurs du numérique de confiance, nous sommes présents à l’international et nous avons de grosses fonctions support comme la RH, la finance. Toutes ces activités produisent du Big Data, et sont compatibles avec l’IA » présente Pierre-Etienne Bardin.

De nombreux cas d’usage mis en oeuvre dans la détection de fraude, la connaissance client et la vision par ordinateur

Depuis 2014, de nombreux cas d’usage ont été déployés à destination des Postiers et des fonctions support du groupe. Pierre-Etienne Bardin évoque la détection de fraude, la connaissance client transversale sur l’assurance, la banque et les produits postaux classiques. D’autres cas d’usage ont été conçus pour améliorer les flux logistiques, soit avec de la vision par ordinateur (Computer Vision) pour la reconnaissance des colis, soit avec des moteurs d’optimisation.


« Nous avons équipé les fonctions centrales avec des solutions pour la finance comme la reconnaissance des factures et pour les RH afin de gérer la mobilité des 245 000 agents du groupe. Un matching de compétences par rapport aux besoins à cette échelle ne se fait pas sur une feuille Excel et on arrive aux limites de l’expertise humaine et il faut aider les experts avec de l’IA. » La doctrine officielle du groupe La Poste est que l’IA doit être conçue par et pour les postiers. « L’IA ne va pas remplacer les postiers, mais elle doit les aider, les augmenter » résume le Chief Data Officer.

70 000 postiers certifiés sur l’IA

Pour Pierre-Etienne Bardin, les experts Data seuls ne peuvent transformer un groupe de cette taille en une entreprise « Data Driven ». Tous les collaborateurs doivent avoir accès à la donnée, mais ils doivent surtout être acteurs de la Data et de l’IA. Dans ce but, un grand programme d’acculturation et de formation a été mis en place : 70 000 postiers et postières ont déjà suivi un programme  d’acculturation à l’IA de 4 heures. Baptisé Objectif IA, ce programme est librement accessible sur OpenClassRoom.

« Les managers, les responsables du groupe et le comité exécutif doivent comprendre quel est leur rôle »

« Nous avons complété cette acculturation par une formation du management, avec une formation conçue pour le Top 500 et une autre dédiée au Top 5 000 » précise-t-il. Chacun doit connaître ses responsabilités dans cette transformation par la Data. « Les managers, les responsables du groupe et le comité exécutif doivent comprendre quel est leur rôle et comment ils peuvent être moteur dans la transformation de notre groupe » ajoute-t-il.

La transformation doit comme dans tous les projets critiques être portée par des sponsors qui assument leur rôle dans l’organisation et dynamisent les réalisations. « Ce n’est pas avec 1 ou même avec les 20 Chief Data Officers du groupe que l’on peut transformer l’entreprise, mais aussi avec les sponsors et les utilisateurs qui doivent comprendre le rôle qu’ils doivent tenir dans ce dispositif » présente Pierre-Etienne Bardin.

Une école de formation des Postiers à la Data et à l’AI

D’autre part, une école de la Data et IA a été mise en place ; Elle propose des parcours certifiants de Data Scientists, Data Engineers, Data Analysts et Product Owner Data. Ce sont des formations en alternance sur 1 an. « Le but est de capitaliser sur nos équipes afin de renforcer les expertises et de les laisser là où elles peuvent avoir du sens, c’est-à-dire au sein des différentes organisations du groupe. »

La charte Data et IA de La Poste définit les principes de bonne utilisation de l’IA et de la Data

L’ensemble de ces initiatives sont menées conformément à la charte Data et IA du groupe. Celle-ci définit les principes de bonne utilisation de l’IA et de la Data selon les valeurs du groupe et la conformité aux exigences réglementaires, RGPD et AI Act en tête. Le respect de cette charte est contrôlé par un comité pour l’IA de confiance qui en vérifie l’application de manière systématique sur tous les projets Data et IA.

Ce dispositif a notamment été sollicité en 2023 lors de l’arrivée de ChatGPT dans les entreprises. Le groupe a vu dans les LLM (grands modèles de langage employés en IA générative) un moyen de résoudre des problèmes qui n’avaient pas été résolus jusque-là. « Nous avions mis en place des chatbots avec des modèles de NLP (Natural Language Processing ou reconnaissance du langage naturel), mais nous en avons atteint les limites » reconnait Pierre-Etienne Bardin.

Les chatbots traditionnels ont déçu

Beaucoup de professionnels critiquent d’ailleurs les chatbots traditionnels car ils manquent de pertinence et d’adaptabilité. « Les modèles NLP ne répondaient pas à nos attentes, tant dans la compréhension des questions que dans la restitution » poursuit le Chief Data Officer. « Nous avons vu dans l’IA générative et notamment les LLM une capacité à aller beaucoup plus loin et à traiter de vastes champs de documents  et de grands domaines de connaissances » revendique-t-il.

La Poste a mis en place une instance OpenAI dans son environnement de Cloud Azure sécurisé

Côté mise en œuvre, l’accès direct à ChatGPT d’OpenAI a été rapidement fermé par les équipes Cyber du groupe La Poste et le groupe a mis en place une instance OpenAI dans son environnement de Cloud Azure sécurisé. En parallèle, les premiers déploiements de Copilot de Microsoft ont été menés pour la bureautique ainsi qu’auprès des développeurs. Ces dispositifs sont encore en cours de test pour évaluer les vrais gains apportés par ces solutions.

En parallèle, un assistant virtuel « LaPosteGPT » a été mis en place en interne afin de faciliter l’accès aux bases de connaissances de La Poste. « Il s’agit d’un point central unique sur lequel l’utilisateur, un Postier, se connecte. Il est reconnu et peut poser sa question. LaPosteGPT va chercher dans les différentes bases de connaissance la réponse. Un directeur commercial Grands Comptes, un chargé de clientèle d’un bureau de poste, un conseiller bancaire va poser sa question » liste le responsable.

Une architecture RAG a été mise en place pour l’IA générative

Le modèle utilise le principe du RAG. « Le modèle va produire une réponse avec les éléments qui indiquent pourquoi il a délivré cette réponse, et lorsqu’il n’a pas de réponse satisfaisante, il indique qu’il ne peut délivrer de réponse » indique-t-il. « Cette approche permet d’éviter les hallucinations » dit-il. C’est donc une architecture RAG qui a été mise en place. Le RAG est une technique qui peut améliorer la qualité de l’IA générative en permettant aux grands modèles de langage (LLM) d’exploiter des ressources de données supplémentaires sans réentraînement.

« Un outil puissant permet d’accéder simplement via une interface conversationnelle à de la documentation »

L’IA RAG de La Poste a l’avantage de pouvoir donner la liste des documents qui ont permis d’élaborer la réponse, ce qui vient rassurer l’utilisateur. « Pour nos métiers, il s’agit d’un outil extrêmement puissant car il permet d’accéder simplement via une interface conversationnelle à de la documentation qu’il était très compliqué d’obtenir et difficile d’accès. »

Dans son choix d’un modèle LLM, le groupe a souhaité préserver son indépendance avec une approche modulaire. LaPosteGPT a ainsi été motorisé par GPT4 8K d’OpenAI ou encore par Mistral AI. L’équipe projet se garde la possibilité de changer à nouveau au fur et à mesure des progrès des IA génératives. « Nous sommes dans une approche où l’IA doit être conçue par et pour les postiers, mais pas encore pour les clients. Nous devons encore réaliser des tests et les modèles actuels ne sont pas encore totalement fiables pour songer à nos clients » conclut Pierre-Etienne Bardin.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *




L'événement digital

Retour au pragmatisme vis-à-vis de l’IA générative
Thomas Hussson de Forrester Reserach et Pierre Casanova  de l’éditeur Contentsquare, 7 novembre

Retour au pragmatisme vis-à-vis de l’IA générative

L’IA générative va alléger la manière dont on interagit avec une marque en ligne, via un chatbot, ou lors de l’interrogation …