AXA-IM soigne la qualité des données avant leur migration


Ayant décidé la migration de son outil de traitement de données, AXA-IM, filiale de gestion d’actifs de la banque AXA, a dû passer par une validation minutieuse de la qualité des données afin de réussir leur intégration.

Axa-IM – IM pour Investment Managers – est la filiale investissement du groupe AXA. Cette société de gestion d’actifs gère les fonds collectés par AXA dans tout le groupe, y compris auprès des clients tiers.


L’entité administre un portefeuille de 10 000 clients au total, ce qui représente près 600 milliards d’euros. AXA IM emploie environ 3 500 personnes dans une vingtaine de pays. L’entité s’est confrontée à la migration de ses données d’un système à un autre.

Requalifier les données avant de les migrer



Le problème est aussi vieux que l’informatique. Lorsqu’on opte pour un outil de traitement de données on opte en même temps pour un format de données qui deviendra, à la longue et avec l’accumulation des gigaoctets, un héritage d’informations à qualifier et à transcoder avant récupération.

S’exprimant lors de l’Informatica Day le 2 octobre dernier, Gildo Marques, expert data dans le service Data & messaging team global IT core services d’AXA IM, résume la problématique rencontrée : « Le problème principal de cette migration était de remplacer par une solution du marché, une solution custom de qualité de données, qui venait reposer sur un ETL (Extraction, Transformation et Chargement des données) qui lui-même était en décalage par rapport aux besoins ». Et d’ajouter « notre challenge était de réussir une bonne intégration avec des données de qualité afin de préparer au mieux l’avenir. Nous étions aussi tenus de minimiser toutes les solutions customisées qui commençaient à proliférer ».


Plusieurs types de contrôles mis en place

Le système d’information visé par la migration est un écosystème applicatif interconnecté qui gère à peu près 500 flux et plus d’une centaine d’applications synchronisées via une couche de transport open. Par rapport au périmètre de la migration et si on le représente brique par brique, il représente à peu près 15 000 mappings. Autant dire que sa complexité et la quantité de données générée ont nécessité la mise en place de procédures de contrôle strictes.

« Par rapport à l’exigence de qualité, nous avons mis en place plusieurs types de contrôles, » explique Gildo Marques. En premier les contrôles conventionnels et nécessaires, c’est-à-dire les contrôles de format et d’intégrité de données avant leur insertion dans les bases de données. « Il y avait aussi les contrôles techniques et enfin, les contrôles fonctionnels qui apportent une cohérence dans tout ce qui est alimenté. En fait il s’agissait d’alimenter des lots cohérents fonctionnellement et rejeter l’ensemble du lot s’il y avait une incohérence quelconque dans le lot en question » dit-il.

En fait AXA-IM a mis en place deux axes de contrôle, l’un était orienté selon les règles métier et l’autre un peu plus technique relatif à la qualité des données. Cela a permis de couvrir les deux exigences, intégration et qualité de données, avec une seule plateforme au lieu de deux qui auraient été une d’intégration et une autre de qualité des données. Pour y arriver les ingénieurs d’AXA-IM ont entrepris une grosse phase de préparation à la migration avec la mise en place d’un Framework dédié.

Photo : Gildo Marques, expert Data à Data & messaging team global IT core services chez Axa

Mourad Krim

Journaliste informatique chevronné, avec plus de 20 ans d'expérience, Mourad Krim a travaillé pour les plus grands magazines et hebdomadaires destinés aux professionnels de l’informatique. Il suit et analyse la révolution numérique depuis ses débuts.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *