Clarins prépare le déploiement multi-pays de son chatbot client en IA générative

Le chatbot client de Clarins est nourri de l'information propre à la marque

Clarins, leader des cosmétiques fête ses 70 ans. C’est l’heure pour l’entreprise de déployer une relation client automatisée grâce à l’IA générative. La marque distribue ses produits de beauté à travers 150 pays et promeut les cosmétiques responsables. Un premier pilote de chatbot a été testé aux Etats-Unis. Le but est un déploiement sur six pays en 2025.

Un chatbot nourri à l’IA générative et aux connaissances de la marque

La firme progresse dans son usage d’une relation client menée par un chatbot nourri à l’IA générative. Un premier test très satisfaisant a été réalisé sur le marché américain en faisant appel à ChatGPT d’OpenAI et Microsoft. La solution est de type RAG, c’est-à-dire qu’elle s’appuie sur les données propres à Clarins. Pour 2025, Clarins  vise un déploiement de ce chatbot de relation client dans six pays dont la France et l’amélioration de sa précision, notamment en ayant recours à du « fine tuning ».

Le chatbot client utilise l’IA générative et a été déployé en pilote début 2024 aux Etats-Unis

Le chatbot actuel utilise l’IA générative et a été déployé en pilote début 2024 aux Etats-Unis. Il s’agit d’un chatbot client afin de répondre lorsque le service client est fermé et que les clients ont des demandes urgentes. Le deuxième enjeu est d’optimiser l’allocation du temps des agents de Clarins pour donner la meilleure réponse aux clients, lorsque le service client est ouvert, mais que l’on est lors d’un temps fort de l’année.

L’assistant est disponible sur le site e-commerce de Clarins. L’échange avec le client s’effectue grâce à l’intelligence de ChatGPT. De plus, les réponses sont personnalisées à partir de la base de connaissances de Clarins. Si un produit est recommandé, le client peut avoir des détails sur la manière de l’appliquer ou le lien, vers la vidéo et la page produit qui correspond.


Un projet de chatbot lancé en 2023 avec Microsoft

A des fins de monitoring, il est proposé aux clients un pouce vers le haut ou le bas pour connaître leur perception du chatbot. En termes de calendrier, ce projet a été lancé en 2023. Il y a eu une phase de préparation avec Microsoft sur l’usage d’OpenAI et les différentes briques à utiliser.

En mai 2024, l’entreprise constatait que les chiffres étaient très bons et décidait de passer en industrialisation de ces modèles

Les équipes Clarins étaient convaincues qu’il y avait une forte valeur ajoutée dans cette approche de l’IA générative. Pour autant, l’entreprise a effectué un A/B test, avec un certain nombre de métriques, afin de valider que cette technologie avait vraiment une valeur ajoutée et une amélioration de la performance par rapport aux chatbots précédents. En mai 2024, l’entreprise constatait que les chiffres étaient très bons et décidait de passer en industrialisation de ces modèles, dont le pilote avait été seulement déployé aux États-Unis.

Sur ces derniers mois, l’équipe de Data Science de Clarins a travaillé à la construction d’un « core model » (modèle central) facilement reproductible dans d’autres pays afin de passer au déploiement au moins sur six pays à partir de 2025. Sur cette première version de chatbot, Clarins a opté pour le modèle RAG. La prochaine étape devrait utiliser un LLM  « fine tuné ». A ce stade, le chatbot est positionné sur la partie front-end du site e-commerce de Clarins, une partie gérée avec « Salesforce Commerce Cloud », et il est porté par une brique de l’application Zendesk de relation client.

Recherche par mot clé et par vecteur

Différentes méthodes de recherche sont mises à disposition. Clarins utilise actuellement un mode hybride. Il y a une partie « keyword search » (recherche par mot clé) et « vecteur search » (recherche vectorielle). Pour la partie de génération des textes, Clarins a fait le choix d’Azure et de ChatGPT d’Open AI. La raison est que lors du lancement du projet, en 2023, ChatGPT était le LLM le plus puissant du marché.

Pour ces premiers pilotes, Clarins avait réalisé des estimations sur le trafic et le paiement à l’usage était plus adéquat comme modèle économique

La firme reconnait qu’aujourd’hui, on peut se poser la question d’ utiliser les modèles LLAMA de Meta ou ceux de Mistral.Ai. Autre enjeu, le modèle économique de ChatGPT était adapté aux besoins de Clarins. Plutôt que d’héberger des LLM (Large Language Models), ce qui est assez coûteux, Clarins a préféré un service en « Pay as you Go » ou « Pay per token ». Pour ces premiers pilotes, la firme avait réalisé des estimations sur le trafic qu’il pouvait y avoir sur le site et le paiement à l’usage était plus adéquat comme modèle économique.

Un autre souci potentiel était la dérive éventuelle du chatbot. Comme le chatbot était exposé directement aux clients, Clarins avait été échaudé par cas de détournements de ces chatbots aux États-Unis. Après l’intervention de son équipe juridique, il a été décidé de s’appuyer sur Microsoft afin d’avoir un filtre qui permette automatiquement de pouvoir éliminer des questions, voire des réponses qui ne correspondaient pas.

Les contraintes des filtrages par rapport aux usages visés

C’est une fonctionnalité appréciée côté Clarins mais elle présente des inconvénients constate-t-on du côté de la maque. Car l’entreprise vend des produits, essentiellement pour les femmes. Or s’il y a une allusion à une partie du corps, la réponse peut être bloquée. « Ça, c’est quelque chose sur lequel on est en train de travailler pour éviter les faux positifs » reconnaît-on chez Clarins.

Clarins voulait être sûr que ses données n’allaient pas être réutilisées pour l’entraînement de ChatGPT

Dans le cadre de ce projet, Clarins a préféré ne pas travailler directement avec Open AI. L’entreprise  voulait une sécurisation de tous les échanges, des questions et des réponses avec ses clients, pouvoir les stocker dans un environnement sécurisé et être sûr que ces données n’allaient pas être réutilisées pour l’entraînement des versions futures de ChatGPT.


Le chatbot de Clarins a accès à des données spécifiques à l’entreprise en mode RAG. Il s’agit de toute l’information présente sur le site e-commerce ou presque, donc les FAQ (Questions les plus fréquentes), les pages produits et les vidéos de promotion. Le chatbot accède aussi aux modèles utilisés par les agents du service clients avec l’outil Zendesk, qui comprend des réponses prédéfinies selon les questions des clients. On y trouve également l’information produits utilisée par les vendeuses en boutiques lors de leur formation pour identifier les principaux conseils, les ingrédients, la cible et comment recommander des produits.

Une amélioration de la satisfaction client mesurée


D’autre part, lors de la validation en A/B test du chatbot aux Etats-Unis, trois métriques ont été employées. D’abord, le but était améliorer la satisfaction client. Cela a été très positif, insiste Clarins. Les clients ont vraiment été très satisfaits par rapport à la version précédente. L’autre objectif était de réduire le taux de contact des agents pour leur permettre d’avoir plus de temps pour des demandes qui étaient plus urgentes et plus spécifiques.

Le but était de se lancer avec un premier projet d’IA générative afin d’augmenter en compétence les équipes de Data sciences

Et là-dessus, Clarins déclare également avoir réduit fortement le taux de contact. Il y avait ensuite un objectif interne. Le but était de se lancer avec un premier projet d’IA générative afin de monter en compétence les équipes de Data sciences. Là-dessus, l’entreprise se montre satisfaite pour sa maîtrise des paradigmes RAG, et est en train de construire d’autres chatbots, plutôt destinés à un usage interne de ses collaborateurs.


La prochaine étape est le déploiement du chatbot dans six pays en 2025 dont la France fera partie parmi les premiers. Le passage obligé sera de disposer d’un « core model » réplicable. L’équipe Data Science est en train de travailler sur l’automatisation d’un certain nombre de tâches qui pour ses premiers pilotes, ont été réalisés à la main.  Des outils de Snowflake et d’Azure peuvent faciliter ces tâches.

Anonymiser les échanges et mesurer les dérives


Parmi les sujets à traiter, la mise en place des chatbots nécessite l’anonymisation des données lors des échanges avec les clients afin de respecter le RGPD. Autre point, il y a le monitoring du chatbot. Comme il devrait y avoir plusieurs bots sur plusieurs pays, il faudra des tableaux de bord (dashboard) qui puissent piloter facilement les performances du modèle et alerter s’il y a des drifts (dérives des modèles d’intelligence artificielle).

Enfin, Clarins travaille dans un contexte d’IA générative RAG, mais pour certains types de réponses qui sont très spécifiques du chatbot, l’équipe Data Science commence à travailler sur le développement des LLM « fine tunés » pour pouvoir être très précis sur la réponse.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *