Comme tout opérateur télécoms, Bouygues Telecom traite d’énormes masses de données relatives à son réseau et à ses abonnés. Or même si les managers et les responsables métiers disposent de plus d’un millier de rapports Tableau, il manque toujours une donnée pour prendre une décision. Un agent d’IA générative peut désormais faire la recherche pour eux.
Des volumes de données élevés
Bouygues Telecom traite des volumes de données élevés avec 4,9 millions de clients fixes et 15,7 millions de clients mobiles. Ses managers appuient leurs décisions en partie en fonction des données extraites du système d’information.
Les managers ont des questions ponctuelles auxquelles il faut répondre rapidement
« Bien souvent des questions ponctuelles peuvent se poser et nous n’avons pas toujours le rapport Tableau correspondant » indique Joëlle Lautré, Responsable de la Connaissance client et Data Science chez Bouygues Telecom.
Du temps pour trouver la bonne information
La recherche de la bonne information consomme du temps. «Il faut lancer une recherche parmi tous les rapports existants pour trouver l’information. Cela demande quelques connaissances en Tableau, mais surtout du temps pour s’y consacrer » déplore-t-elle. Elle a pris la parole à l’occasion de l’événement Data & AI for business organisé par le Hub Institute, les 4 et 5 juin derniers à Paris.
« Ces demandes ad hoc arrivent auprès de l’équipe Connaissance client et Data Science«
De fait, la responsable estime que 30% de l’activité de l’équipe était mobilisée par ces demandes ad hoc simples sur lesquelles les profils les plus expérimentés n’apportent pas une grande valeur ajoutée. Un projet de Self-service Analytique est alors lancé afin de rendre les métiers autonomes sur l’accès à la donnée sans expertise technique et pour libérer du temps aux experts Data.
Un chabot pour interroger le système d’information en langage naturel
L’outil imaginé par l’équipe Data Science et le cabinet de conseil Avisia consiste en un chatbot à qui le manager va pouvoir poser une question en langage naturel et obtenir immédiatement une réponse fiable. « L’idée était aussi de disposer d’un outil central afin d’interroger toutes les données de l’entreprise » précise Joëlle Lautré.
« L’outil exécute une requête SQL en temps réel sur le système d’information et affiche un résultat recontextualisé »
Le but est le contrôle du fonctionnement. « Cela permet à l’utilisateur de vérifier que le LLM [grand modèle de langage] a bien compris et interprété sa demande. Si le résultat ne répond pas aux attentes de l’utilisateur, celui-ci peut alors préciser sa demande » indique-t-elle.
Un outil Web simple d’emploi
L’objectif de l’outil est de sortir de l’approche du reporting classique et de proposer un outil Web simple d’emploi. Celui-ci pourrait rejoindre le ChatGPT interne de Bouygues Telecom ou même être accessible directement dans le Teams de l’entreprise.
Le chatbot d’interrogation du système d’information se compose de trois briques logicielles
Ce contexte est constitué de deux éléments. Il y a « une description de nos bases de données et une bibliothèque d’exemples de questions et les requêtes qui permettent d’y répondre » dit-il. La deuxième brique de cette architecture de type RAG est constituée de l’IA générative qui récupère le prompt contextualisé pour transformer la question en requête SQL.
Un système d’agents multiples
Sur ce plan, les Data Scientists ont fait le choix de s’appuyer sur un système d’agents multiples. « Au lieu de demander à un LLM de transformer la question en requête en une seule fois, nous lui demandons une succession d’étapes simples » explique Clément Faucompré.
« Cela permet d’obtenir des réponses plus fiables du LLM et de nous assurer de la qualité de sa réponse »
Selon le Data Scientist, cette approche facilite énormément le travail du LLM. Matthieu Brochard, Responsable IA et Innovation chez Avisia ajoute : « dans ces systèmes multi-agents, chaque modèle effectue des tâches spécifiques. Une telle architecture permet de mettre en œuvre des modèles spécifiques beaucoup plus légers qui peuvent être hébergés en interne de manière beaucoup plus simple que les gros modèles. »
Usage des interfaces applicatives du système d’information
Enfin, la troisième étape du processus est de solliciter les API (interfaces applicatives) du système d’information afin d’obtenir les données souhaitées. Le LLM les reçoit et recontextualise les résultats pour les envoyer à l’utilisateur.
Il s’agit d’éliminer les redondances afin de fiabiliser les réponses et d’éviter les hallucinations
Un autre facteur clé dans le succès de ce projet fut le périmètre relativement restreint de son champ d’action qui est celui de la relation client. « Il y avait déjà eu une initiative avant ce projet, mais la solution n’avait pas fonctionné » raconte Clément Faucompré.
Un projet précédent trop ambitieux
Le projet précédent visait l’ensemble des données de l’opérateur télécoms. « L’IA avait accès à l’entièreté des données de Bouygues Telecom et il était possible de poser des questions sur l’ensemble de ces données. Les quantités de données mises en jeu étaient énormes et l’IA n’était pas capable de démêler toutes ces informations. »
En restreignant le périmètre au marketing client, l’équipe projet a pu obtenir des résultats satisfaisants
Enfin, l’arrivée des modèles multimodaux va permettre de croiser les textes et les images, ce qui devrait faire émerger des idées de nouvelles applications dans les équipes IT et métiers. « La cible de l’outil est les managers et les directeurs qui n’ont pas nécessairement une grande expertise de la Data » rappelle Joëlle Lautré. Ces responsables « ont besoin de disposer de chiffres rapidement lors des réunions ou en sortie de réunion. Il s’agit de les rendre autonomes et d’autre part de libérer du temps à nos experts Data » conclut-elle.