L’enseigne alimentaire Grand Frais améliore ses algorithmes de prédictions de vente

Grand Frais améliore la précision de ses prédictions de vente de 10 % à 40 %

La prévision de la demande est une discipline clé pour le secteur de la grande distribution, surtout pour la vente des produits frais. Prosol avec son enseigne Grand Frais disposait d’algorithmes de prévision classiques. Il a revu sa copie avec des algorithmes de nouvelle génération pour une précision accrue de 10 % à 40 %. L’enjeu est alors que ces nouveaux outils soient adoptés par les équipes de terrain.

Connu pour ses enseignes Grand Frais, Fresh et la Boulangerie du Marché, Prosol est un acteur de la distribution spécialisé dans les produits frais. A cet égard, la prévision de la demande de la clientèle est cruciale, tant pour améliorer la trésorerie de l’enseigne par réduction des stocks, mais aussi en répondant aux besoins client, d’où leur satisfaction.

Réduire les ruptures de stocks et satisfaire les clients


Une prédiction fiable permet de réduire le nombre des ruptures de stocks et les clients trouvent toujours des produits frais dans les rayons. C’est aussi un enjeu clé pour la réduction du gaspillage alimentaire et contribue fortement à la rentabilité.

Le responsable de rayon décide des quantités à acheter à J +2, et il passe ses commandes tous les jours

Traditionnellement, chez Grand Frais, les livraisons sont quotidiennes. Le responsable de rayon décide des quantités à acheter à J +2, et il passe ses commandes tous les jours. Les algorithmes commencent à calculer les quantités à acheter pour chaque type de produit et pour chaque magasin 14 jours plus tôt. Puis cette prévision est affinée chaque jour afin que le responsable dispose de la donnée la plus ajustée lorsqu’il lance effectivement sa commande.

Disposer d’une recommandation précise pour chaque produit et déjà renseignée dans l’outil de prise de commande va faire gagner énormément de temps au chef de rayon. Les Chefs de rayon doivent compléter toutes les lignes produit de leur rayon, soit de 400 à 500 références.


Les recommandations peuvent être acceptées ou modifiées

« Lors du passage des commandes, le responsable de rayon reçoit les recommandations du système d’IA. Il peut alors soit accepter cette prédiction, soit la modifier » présente Fanjuan Shi, Group CIO (Chief Information Officer) et CDO (Chief Data Officer) de Prosol. « Nous utilisons les algorithmes de Machine Learning pour prédire les volumes de vente pour chaque magasin et chaque produit » dit-il. « Cette information est combinée avec le niveau de stock restant et des règles de calcul pour définir les quantités à commander. »

La qualité des prévisions était jugée insuffisante pour 20 à 30 % des séries. D’où le recours aux algorithmes Prophet et XG Boost

Mais 20 à 30% de prévisions étaient insuffisamment précises. L’équipe de Data Science de Prosol a mis en place l’architecture de Data Lake et Data Warehouse, la préparation des données, puis la mise en place d’algorithmes statistiques tels qu’Arima, Sarima et Sarimax et les méthodes d’optimisations classiques. L’approche n’était pas totalement satisfaisante, car la qualité des prévisions était jugée insuffisante pour 20 à 30 % des séries. « Nous avons considéré qu’il fallait revoir les algorithmes et les méthodologies d’entraînement. Nous avons contacté Equancy dans ce but afin de travailler sur la mise en œuvre des algorithmes Prophet et XG Boost » présente le CIO.

La société de conseil Equabcy n’est bien évidemment pas partie d’une page blanche. Elle a pu s’appuyer sur toute l’infrastructure, les historiques de vente, les mouvements de stocks, les variations de prix ainsi que sur les données relatives aux produits afin de mettre en place les nouveaux algorithmes. « Avant d’arriver aux algorithmes, nous avons mis en place des transformations de données, calculé des moyennes mobiles et d’autres données destinées à améliorer l’efficacité des futurs algorithmes » explique Florian Laroumagne, directeur Data Science chez Equancy.

Deux modèles complémentaires à évaluer, Prophet et XGBoost

« Nous sommes passés d’algorithmes ‘historiques’ comme Arima, les dérivées et le lissage exponentiel, des méthodes statistiques qui fonctionnent, mais qui ne sont plus à l’état de l’art » poursuit-il. « On cherche à prédire correctement et nous avons proposé d’évaluer deux modèles complémentaires : Prophet qui est issu de Facebook et que nous avons challengé avec XGBoost. »

L’idée était de créer un gros modèle capable de prédire plusieurs quantités pour plusieurs produits et plusieurs magasins

Si la recherche de performance motive la mise en œuvre de ces nouveaux algorithmes, XGBoost présente un atout majeur : alors qu’il fallait réaliser un calcul pour chaque série, c’est-à-dire pour chaque produit pour chaque magasin, l’idée était de créer un gros modèle capable de prédire plusieurs quantités pour plusieurs produits et pour plusieurs magasins.

Les résultats étaient très encourageants, y compris sur les promotions. Avant d’être utilisés en mode prédictif, les algorithmes ont été entraînés puis « back testés » c’est à dire testés sur les valeurs passées afin de vérifier leur précision. Cette précision a été mesurée avec l’indicateur RMSE (erreur quadratique moyenne).

Amélioration de la précision des prédictions avec XGBoost

Sur une prévision d’un produit permanent dans un magasin, avec l’algorithme de lissage exponentiel, Prosol obtenait une erreur RMSE moyenne de 11,7 pour ses prévisions à J-1. Avec XGBoost, l’écart est tombé à 9,5 en moyenne, soit une amélioration de 19% de la précision, mais sur la prévision à 14 jours.  En outre, tous les jours peuvent être prédits, y compris les jours très atypiques dans la distribution, comme le 1er mai qui causent de gros problèmes aux algorithmes « classiques ».

Aucun algorithme ne peut prédire la quantité qui sera vendue le jour 1 d’une promotion

Les promotions pour leur part sont un enjeu spécifique. Aucun algorithme ne peut prédire la quantité qui sera vendue le jour 1 de la promotion. Par contre, avec un algorithme statistique, il faut 2 à 3 jours pour que la prédiction rattrape le pic des ventes du jour 1. De même, l’algorithme ne parvient pas à prévoir le rebond des ventes qui peut survenir quelques jours après le lancement de la promotion.

Avec le nouvel algorithme mis en place avec Equancy, l’algorithme ne prévoit pas le pic du jour 1, mais la remise à jour de la prédiction du lendemain permet à l’algorithme de se recadrer immédiatement. Au final, la baisse du niveau d’erreur atteint 25%.

Prédictions possibles lors de l’ouverture d’un nouveau magasin

« Nous avons aussi la capacité de délivrer des prédictions pour un nouveau magasin » indique Florian Laroumagne. « Grand Frais ouvre régulièrement de nouveaux points de vente et avec un historique de vente de 2 semaines seulement nous pouvons commencer à délivrer des prévisions de vente alors qu’il fallait attendre plusieurs mois avant de le faire avec les méthodes classiques. »

Des gains informatiques de n’avoir plus qu’un seul algorithme à déployer, à maintenir et à faire évoluer

Enfin, le directeur Data Science d’Equancy souligne les gains en termes informatiques de n’avoir plus qu’un seul algorithme à déployer, à maintenir et à faire évoluer plutôt que les plusieurs milliers de modèles qu’imposaient les prédictions produit par produit, magasin par magasin.

Les gains opérationnels de cette nouvelle approche sont élevés. « L’amélioration de la prévision dans nos magasins a permis de réduire de 5% à 10% le taux de casse» présente Fanjuan Shi. Le taux de casse est la valeur des produits frais qui ont du être jetés divisée par la valeur totale des produits. « Cela représente une économie considérable, car chaque dixième de pourcent représente des millions d’euros » confie-t-il.  

Prévoir la conduite du changement lors de la mise en place de l’outil

Pour le CIO, un autre point important porte sur la conduite du changement. Pour lui, un projet d’IA et de Data Science n’est pas qu’un projet technique. Il faut s’assurer de son adoption de son adéquation avec les besoins des utilisateurs métier. « Nous mesurons notamment le taux de modification des prévisions et quelle est l’ampleur des modifications qui sont apportées » dit-il.

« Cela nous permet d’évaluer si l’outil est effectivement une aide »

« Cela nous permet d’évaluer si l’outil est effectivement une aide pour les utilisateurs terrain qui ont le savoir-faire » explique-t-il. « Mesurer l’écart entre ce qui est proposé et ce qui est saisi par l’utilisateur de terrain, cela nous permet aussi d’améliorer notre algorithme. » souligne-t-il.

Enfin, le responsable se félicite de la réduction du nombre de modèles à gérer, un progrès majeur sur le plan FinOps. « Un projet d’IA et de Data Science n’est pas qu’un projet technique, mais il faut s’assurer que les gens utilisent l’outil » insiste-t-il.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *




L'événement digital

Retour au pragmatisme vis-à-vis de l’IA générative
Thomas Hussson de Forrester Reserach et Pierre Casanova  de l’éditeur Contentsquare, 7 novembre

Retour au pragmatisme vis-à-vis de l’IA générative

L’IA générative va alléger la manière dont on interagit avec une marque en ligne, via un chatbot, ou lors de l’interrogation …