La Poste met en place une plateforme de nouvelle génération qui assure le suivi des plis et des colis de bout en bout afin d’améliorer la satisfaction de ses clients. Le groupe veut maîtriser la qualité de service depuis l’expédition du pli ou du colis jusqu’à sa remise au destinataire.
Suivre 80 milliards d’événements par an
Cette application doit suivre 80 milliards d’événements par an afin de renseigner les responsables de La Poste sur le bon déroulement des opérations. Il y a ainsi 5000 utilisateurs à La Poste de cette application. L’application a été développée avec la société de services Capgemini. Elle s’appuie sur la plateforme Data de Snowflake hébergée dans le Cloud Azure de Microsoft. Elle a été privilégiée à SAP Hana employé à La Poste.
La Poste prend en charge un volume croissant de colis et développe de nouveaux services de portage
Dès lors, La Poste a déployé un nouveau système d’information événementiel qui permet de suivre chaque pli de l’entrée dans le réseau, lors du passage en centre de tri, pour arriver finalement dans la sacoche du facteur qui délivre le pli. Le système d’information événementiel permet de flasher chaque événement dans le réseau.
Des KPI standards pour les directeurs d’établissements et le Président
Afin de réussir ce projet, il y a eu un enjeu d’harmonisation afin de délivrer des KPI standards pour toutes les filières et tous les utilisateurs de La Poste, jusqu’aux directeurs d’établissements et au Président. Un enjeu est de mettre toutes les Business Units d’accord sur les indicateurs, leur définition et leur calcul.
« Nous partons de la même donnée structurée, qualifiée, actualisée au même moment sans dupliquer les données«
Dans le cadre de cette application de suivi des plis et des colis, les événements sont suivis en pseudo temps réel, c’est-à-dire au quart d’heure près. Et il y a 5000 utilisateurs côté La Poste qui créent des pics de connexion entre 6 heures et 8 heures du matin afin d’accéder à leurs tableaux de bord. Le projet a été délivré en prenant en compte toutes les contraintes, techniques et métiers.
Un MVP a été construit en 4 mois avec Capgemini
Un premier MVP (Minimum Viable Product) a été construit en 4 mois avec Capgemini après 2 mois d’évaluation. Ce MVP intégrait Kafka – une plateforme de streaming pour le Big Data – qui n’était pas natif auparavant. La Poste est partie d’un existant fonctionnant sur SAP Hana sur lequel elle travaillait depuis 2 ans. Il y a 4 mois, tous les traitements ont été reportés sur la plateforme Snowflake sur le Cloud Azure afin de prouver que la solution fonctionne.
« Nous avons voulu mettre en place du self service sur ces gros volumes de données, ce qui n’était pas possible auparavant«
L’équipe projet qui intervient sur la qualité de service est désormais autonome. La Poste souhaite développer le self service dans l’accès et la manipulation des données. Pour cela, elle a identifié des « Citizen Data Analysts ». Il s’agit de personnes qui sans avoir forcément de compétences SQL, peuvent explorer les données afin d’examiner des problèmes de qualité sur des colis ou des courriers spécifiques sans avoir à coder. Un deuxième profil identifié pour les accès en self service concerne les gens qui peuvent avoir des compétences Data, et qui vont souhaiter manipuler la donnée par eux-mêmes. « Nous avons pu ouvrir des bacs à sable pour ces gens là. Ils peuvent travailler en autonomie sur ces données » se félicite-t-on chez La Poste.
L’outil de requêtage BO a été conservé afin de faciliter le changement
Le projet conserve l’usage de l’outil d’interrogation de données BusinessObjects de SAP qui est bien connu des 5000 utilisateurs à La Poste, ce qui minimise la conduite du changement. Les requêtes s’effectuent en direct (« Direct Query ») sur les données centralisées. « L’objectif n’est pas de changer la logique métier de tous les Postiers dans toute la France. On change le moteur, mais pas l’interface » explique-t-on du côté du projet.
Dans la nouvelle architecture, il est possible d’interroger des données fines qui sont très volumineuses
Néanmoins, pour les futurs rapports, La Poste travaille sur les nouveaux outils PowerBI de Microsoft et Tableau de Salesforce « qui sont plus modernes et qui permettront de tirer parti de la puissance de calcul de Snowflake ». Les tests sont en cours. Toujours côté outils, La Poste utilise également la plateforme d’atelier logiciel Dataiku pour les Data Scientists et les Citizen Data Analysts.
Les équipes de La Poste sont montées rapidement en compétences
La nouvelle plateforme se montre flexible. L’intégration des flux (« streams ») quasi temps réel d’informations s’effectue en jours et non en mois. Les équipes internes de La Poste sont montées rapidement en compétences et sont autonomes car elles ont un historique de décisionnel sur des bases de données Oracle et Sybase avec des ETL (Extract Transform and Load).
« Le time to market s’est grandement amélioré, côté TCO on est capable de piloter nos coûts »
Le futur est à créer de nouveaux produits Data. « Nous avons la plateforme, les données, elles sont de qualité et structurées, et nous allons derrière faire encore plus de valeur. Oui le self service, oui demain de l’IA, on va croiser avec des données de transport et des données externes, tout cela sans dupliquer la donnée. Nous avons tous les pré-requis pour créer des produits Data à valeur ajoutée » conclut-on à La Poste. Des applications sont évoquées afin d’identifier et d’anticiper les incidents de livraison grâce au Process mining, la Data Science et l’accès à la donnée en self-service.