La Poste écarte SAP Hana face aux exigences du suivi de ses plis et colis

La Poste doit gérer 80 milliards d'événements par an


La Poste met en place une plateforme de nouvelle génération qui assure le suivi des plis et des colis de bout en bout afin d’améliorer la satisfaction de ses clients. Le groupe veut maîtriser la qualité de service depuis l’expédition du pli ou du colis jusqu’à sa remise au destinataire.

Les événements correspondent au suivi des plis et des colis



Suivre 80 milliards d’événements par an

Cette application doit suivre 80 milliards d’événements par an afin de renseigner les responsables de La Poste sur le bon déroulement des opérations. Il y a ainsi 5000 utilisateurs à La Poste de cette application. L’application a été développée avec la société de services Capgemini. Elle s’appuie sur la plateforme Data de Snowflake hébergée dans le Cloud Azure de Microsoft. Elle a été privilégiée à SAP Hana employé à La Poste.

La Poste prend en charge un volume croissant de colis et développe de nouveaux services de portage

Cette transformation technique se déroule sur fond de forte baisse structurelle du courrier, avec 6 milliards de plis acheminés actuellement par La Poste alors que c’était 18 milliards en 2008. Dans le même temps, La Poste prend en charge un volume croissant de colis et développe de nouveaux services comme le portage de médicaments. Elle déploie également de nouvelles gammes de courrier.

Dès lors, La Poste a déployé un nouveau système d’information événementiel qui permet de suivre chaque pli de l’entrée dans le réseau, lors du passage en centre de tri, pour arriver finalement dans la sacoche du facteur qui délivre le pli. Le système d’information événementiel permet de flasher chaque événement dans le réseau.

Des KPI standards pour les directeurs d’établissements et le Président

Afin de réussir ce projet, il y a eu un enjeu d’harmonisation afin de délivrer des KPI standards pour toutes les filières et tous les utilisateurs de La Poste, jusqu’aux directeurs d’établissements et au Président. Un enjeu est de mettre toutes les Business Units d’accord sur les indicateurs, leur définition et leur calcul.

« Nous partons de la même donnée structurée, qualifiée, actualisée au même moment sans dupliquer les données« 

Il y a notamment une Business Unit responsable de la qualité de service et qui est en contact avec l’Arcep. « Nous partons de la même donnée structurée, qualifiée, actualisée au même moment sans dupliquer les données dans différents systèmes pour alimenter un reporting » se félicite-t-on à La Poste. Les enjeux de coûts ou FinOps ont été pris en compte dès le lancement du projet afin d’avoir la bonne valeur pour le produit par rapport à la valeur délivrée pour le terrain. Il y a des enjeux également de time-to-market, de scalabilité en particulier lors du pic des fêtes de Noël. De plus, il y a eu la volonté de monter en compétences des équipes internes.


Dans le cadre de cette application de suivi des plis et des colis, les événements sont suivis en pseudo temps réel, c’est-à-dire au quart d’heure près. Et il y a 5000 utilisateurs côté La Poste qui créent des pics de connexion entre 6 heures et 8 heures du matin afin d’accéder à leurs tableaux de bord. Le projet a été délivré en prenant en compte toutes les contraintes, techniques et métiers.

Un MVP a été construit en 4 mois avec Capgemini


Un premier MVP (Minimum Viable Product) a été construit en 4 mois avec Capgemini après 2 mois d’évaluation. Ce MVP intégrait Kafka – une plateforme de streaming pour le Big Data – qui n’était pas natif auparavant. La Poste est partie d’un existant fonctionnant sur SAP Hana sur lequel elle travaillait depuis 2 ans. Il y a 4 mois, tous les traitements ont été reportés sur la plateforme Snowflake sur le Cloud Azure afin de prouver que la solution fonctionne.

« Nous avons voulu mettre en place du self service sur ces gros volumes de données, ce qui n’était pas possible auparavant« 

Des tests de montée en charge ont été réalisés. Ils ont montré que la nouvelle solution était deux fois plus rapide que SAP Hana. « Côté Hana, on ne pouvait plus monter en charge à cause des 80 milliards d’événements qui allaient arriver ». Quant aux équipes de La Poste, elles sont montées en compétences en 4 mois et sont devenues autonomes. « Nous avons voulu mettre en place du self service sur ces gros volumes de données, ce qui n’était pas possible auparavant, car La Poste ne pouvait plus stocker de données fines car cela coûtait trop cher dans un système SAP. »

L’équipe projet qui intervient sur la qualité de service est désormais autonome. La Poste souhaite développer le self service dans l’accès et la manipulation des données. Pour cela, elle a identifié des « Citizen Data Analysts ». Il s’agit de personnes qui sans avoir forcément de compétences SQL, peuvent explorer les données afin d’examiner des problèmes de qualité sur des colis ou des courriers spécifiques sans avoir à coder. Un deuxième profil identifié pour les accès en self service concerne les gens qui peuvent avoir des compétences Data, et qui vont souhaiter manipuler la donnée par eux-mêmes. « Nous avons pu ouvrir des bacs à sable pour ces gens là. Ils peuvent travailler en autonomie sur ces données » se félicite-t-on chez La Poste.

L’outil de requêtage BO a été conservé afin de faciliter le changement


Le projet conserve l’usage de l’outil d’interrogation de données BusinessObjects de SAP qui est bien connu des 5000 utilisateurs à La Poste, ce qui minimise la conduite du changement. Les requêtes s’effectuent en direct (« Direct Query ») sur les données centralisées. « L’objectif n’est pas de changer la logique métier de tous les Postiers dans toute la France. On change le moteur, mais pas l’interface » explique-t-on du côté du projet.

Dans la nouvelle architecture, il est possible d’interroger des données fines qui sont très volumineuses

Dans la nouvelle architecture, il est possible d’interroger des données fines qui sont très volumineuses. C’était une demande du métier depuis 1 an. Elle n’était pas réalisable avec SAP Hana. Cette demande est en train d’être déployée. Les performances sont satisfaisantes. « C’est une des premières réussites que l’on affiche parce que c’est vraiment très attendu » commente-t-on à La Poste.

Néanmoins, pour les futurs rapports, La Poste travaille sur les nouveaux outils PowerBI de Microsoft et Tableau de Salesforce « qui sont plus modernes et qui permettront de tirer parti de la puissance de calcul de Snowflake ». Les tests sont en cours. Toujours côté outils, La Poste utilise également la plateforme d’atelier logiciel Dataiku pour les Data Scientists et les Citizen Data Analysts.

Les équipes de La Poste sont montées rapidement en compétences

La nouvelle plateforme se montre flexible. L’intégration des flux (« streams ») quasi temps réel d’informations s’effectue en jours et non en mois. Les équipes internes de La Poste sont montées rapidement en compétences et sont autonomes car elles ont un historique de décisionnel sur des bases de données Oracle et Sybase avec des ETL (Extract Transform and Load).

« Le time to market s’est grandement amélioré, côté TCO on est capable de piloter nos coûts »

En deux mois, ces professionnels sont opérationnels et aujourd’hui ils développent quatre fois plus rapidement que sur SAP. « D’un point de vue business, il y a une forte adhésion, le time to market s’est grandement amélioré, côté TCO on est capable de piloter nos coûts et de communiquer sur nos coûts. Il n’y a quasiment que des points positifs sur ce chantier » se réjouit-on à La Poste.

Le futur est à créer de nouveaux produits Data. « Nous avons la plateforme, les données, elles sont de qualité et structurées, et nous allons derrière faire encore plus de valeur. Oui le self service, oui demain de l’IA, on va croiser avec des données de transport et des données externes, tout cela sans dupliquer la donnée. Nous avons tous les pré-requis pour créer des produits Data à valeur ajoutée »  conclut-on à La Poste. Des applications sont évoquées afin d’identifier et d’anticiper les incidents de livraison grâce au Process mining, la Data Science et l’accès à la donnée en self-service. 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *




L'événement digital

Black Friday : les prix malmenés pour leur faire dire ce que l’on veut, selon l’UFC Que Choisir

Black Friday : les prix malmenés pour leur faire dire ce que l’on veut, selon l’UFC Que Choisir

Le Black Friday aura lieu le 29 novembre. Cet événement est censé donner accès à des bonnes affaires grâce à des promotions …