Expérience en modélisation de données
En 2010, j'ai découvert Dan Linstedt et son travail sur la modélisation de données, après m'être familiarisé avec Data Vault 1.0 dans le cadre d'un projet. Au fur et à mesure que j'en apprenais davantage sur son travail, j'ai rapidement été inspiré par cette méthode de modélisation. À l'époque, je travaillais en tant que développeur pour soutenir un projet Data Vault mis en œuvre dans Oracle. En 2018, je me suis retrouvé en Allemagne et j'ai appris l'existence d'un bootcamp qui me permettrait de découvrir Data Vault 2.0 en détail. Cela m'a également donné l'occasion de passer un examen pour obtenir une certification. J'ai pris le temps de me préparer pour l'examen et j'ai réussi à obtenir la certification Data Vault 2.0 Practitioner. Au cours des années suivantes, j'ai travaillé sur des missions Data Vault, en tant Consultant sur un POC, ou en tant que développeur de données. J'ai également participé à des projets d'ingénierie des données, et de migration des données.
Entre février 2022 et septembre 2024, j'ai eu l'opportunité de travailler sur un projet de modélisation de données pour une grande organisation d'assurance en Allemagne. L'objectif était ambitieux : rationaliser le reporting pour le pilotage du portefeuille à travers plus de 10 entités opérationnelles, chacune basée dans un pays différent, avec son propre ensemble de pratiques commerciales, et un ensemble unique d'indicateurs clés de performance de reporting. Le défi : mettre en place un reporting de groupe dans le Group Data Office, pour le pilotage du portefeuille.
Comprendre les besoins du client
Le premier obstacle a été la diversité même des pratiques commerciales en matière d'assurance dans les ENP. Chaque région avait ses propres méthodes de travail et de mesure du succès, ce qui complique l'unification des données dans un modèle unique et cohérent. À cela s'ajoutait la nécessité d'adhérer à la méthodologie Data Vault 2.0 et de s'aligner sur une ontologie d'entreprise globale, en veillant à ce que chaque élément de données s'inscrive dans un cadre cohérent et normalisé. Tout cela devait être ancré dans un glossaire d'entreprise de groupe qui définissait et normalisait les champs de données critiques de l'entreprise.
Mettre à profit les expériences passées
Heureusement, j'étais préparé. Mon expérience avec Data Vault 2.0 m'a aidé à comprendre l'ontologie de groupe de cette compagnie.
L'amélioration du modèle de données du groupe et l'ajout d'un nouveau champ d'application ont nécessité des ateliers et des entretiens avec des experts en la matière. Ces sessions ont été cruciales pour comprendre les nuances de leurs exigences commerciales, de leurs données commerciales et de leurs objectifs de reporting, allant de la terminologie qu'ils utilisent à la façon dont ils gèrent leurs affaires quotidiennes, en passant par la compréhension du contexte dans lequel s'inscrivent leurs exigences. J'ai traduit ces informations sur les besoins de l'entreprise, que j'ai pu clarifier grâce aux ateliers et aux sessions d'entretiens, en une modélisation claire et je les ai incorporées dans le produit final - le modèle de données et les normes de données.
L'une de mes contributions les plus importantes a été la rédaction d'un guide complet sur la cartographie de ces données. Ce document est devenu une ressource de référence, expliquant les objectifs, les attentes en matière de granularité des données et les relations nécessaires à l'alignement. Il comportait également des exemples pratiques pour faciliter l'application des lignes directrices, ce qui a permis de réduire considérablement les malentendus lors de la mise en œuvre. En outre, j'ai organisé plusieurs sessions d'intégration, donnant aux représentants des entités la possibilité de poser des questions et de faire part de leurs commentaires ou des obstacles rencontrés dans la mise en œuvre du modèle de données et des normes de données.
Surprises en cours de route
Aucune mission n'est exempte de surprises. L'un des défis les plus complexes concernait la gestion des données d'adresses par les opérateurs économiques. Au lieu d'avoir une vue unifiée, les données étaient dispersées dans différents systèmes : les adresses des assurés dans les systèmes de gestion des polices, les adresses des sinistres dans les systèmes de gestion des sinistres et les adresses de facturation étaient toutes gérées séparément. Lorsque nous avons proposé de les regrouper en une seule entité dotée d'identifiants uniques, certains opérateurs économiques se sont opposés à cette idée, arguant qu'elle n'était pas pratique, en particulier dans les environnements multilingues. En réalité, il leur était difficile d'extraire et d'unifier les adresses.
Pour répondre à leurs préoccupations, j'ai proposé une solution d'avenir dans la prochaine version du modèle : enrichir les données d'adresse avec la latitude et la longitude pour qu'elles servent d'identifiants uniques. Bien que cette approche nécessite un engagement à long terme, elle a permis d'apaiser les inquiétudes immédiates et d'aller de l'avant.
Un autre défi a été posé par la diversité des infrastructures de données des entités opérationnelles. Alors que certains utilisent des plateformes modernes comme Snowflake, d'autres s'appuient sur des systèmes existants, y compris les ordinateurs centraux.
Cette disparité signifiait que des mesures clés telles que la prime brute souscrite étaient souvent disponibles de manière incohérente. Dans certains cas, des approximations ont dû être utilisées, ce qui a nécessité une validation supplémentaire pour garantir l'exactitude des données.
Naviguer dans la diversité des points de vue
Les différences dans la manière dont les groupes d'entreprises considèrent les données ont ajouté une couche de complexité supplémentaire. Par exemple, le Group Data Office, où je travaillais, donnait la priorité à une perspective de souscription, tandis que d'autres se concentraient sur les mesures comptables. Cela a donné lieu à une nouvelle série de sessions, l'alignement de ces points de vue nécessitant un travail détaillé, la construction d'exemples, des comparaisons et des explications, ce qui a permis d'aboutir à un consensus. Ces sessions ont pris beaucoup de temps, mais ont été en même temps très enrichissantes.
L'intégration des anciens modèles 3NF (Third normal form) dans le cadre de Data Vault s'est également avérée délicate. Certains de ces modèles étaient basés sur XML, avec des relations qui ne s'inscrivaient pas clairement dans la nouvelle ontologie. Dans ce cas, mon rôle allait au-delà de la mise en œuvre technique : je devais guider l'équipe dans les méandres de la réconciliation de ces différences tout en préservant l'intégrité du modèle unifié.
Collaborer pour réussir
Au fur et à mesure que le projet prenait de l'ampleur, d'autres membres de l'équipe interne ont été intégrés au projet. Bien que cela ait augmenté la capacité, cela a également introduit de nouveaux défis, car ces membres étaient plus familiers avec la modélisation 3NF qu'avec Data Vault. J'ai donc dû faire preuve de beaucoup de patience et de collaboration. J'ai créé des exemples détaillés, de la documentation et des validations de mappage pour mettre tout le monde au même niveau de connaissance et assurer la cohérence au sein de l'équipe. Malgré ces obstacles, l'effort de collaboration a fini par porter ses fruits.
Délivrer de la valeur au client
À l'issue de la mission, nous avons fourni un modèle de données unifié et robuste :
- Rapports de données normalisés : Les données provenant de diverses sources ont été regroupées dans un cadre cohérent, ce qui a permis d'améliorer la fiabilité des rapports de groupe.
- Amélioration de la qualité des données : La déduplication et le regroupement des donnée ont permis d'éliminer les divergences et d'améliorer les capacités de prise de décision.
- Une meilleure préparation à l'avenir : Conçu pour s'adapter à l'évolution des entreprises et des cas d'utilisation de l'analyse avancée.
- Conformité facilitée : Alignement sur le RGPD et les normes de gouvernance interne grâce à des définitions claires et à un accès contrôlé.
Penser pour l'avenir
Cette Mission a renforcé ma conviction que la modélisation réfléchie des données permet de relever les défis les plus complexes. Il a également mis en évidence l'importance de l'adaptabilité et d'une communication efficace lorsque l'on travaille avec diverses parties prenantes. Pour ce qui est de l'avenir, je suis enthousiaste à l'idée de m'attaquer à des projets qui:
- Feront progresser la modélisation des ontologies et exploiteront les graphes de connaissances pour obtenir des informations plus riches.
- Pourront résoudre les problèmes liés aux données transfrontalières pour les organisations internationales.
- Pourront intégrer de manière transparente les systèmes d'IA pour permettre l'analyse prédictive et l'automatisation.
En repensant à cette aventure, je suis très fier des solutions que nous avons élaborées et de l'esprit de collaboration qui a conduit à la réussite du projet. Si vous êtes confronté à des défis similaires ou si vous cherchez à pérenniser votre architecture de données, prenons contact et créons ensemble quelque chose d'extraordinaire.