Mission : Mise en place d’une gouvernance des données groupe et préparation d’une feuille de route pour l’intégration de la Data
Gouvernance dans tous les projets la Poste.
• Accompagnement à l’élaboration de la Roadmap Data Management, à l’élaboration de l’offre de service Data groupe et pour la
réorganisation du pôle Data.
• Standardisation des documents « Kit Data Management, Contrat d’interface lors de l’intégration des données dans le DataLake ,
Template des Spécificationsfonctionnelles détaillées, Template de profiling des données et mise en place d’un document de contrôle
de l’ingestion des données dans le Data Lake.
• Réorganisation des objets métiers et techniques dans Collibra en proposant une nouvelle architecture d’implémentation.
• Optimisation du processus d’ingestion des données dans le DataLake
• Accompagnement à la construction d’un dictionnaire de données groupe (Centralisation des concepts et des règles de gestion)/
• Accompagnement mise en place d’un processus de Data Quality : Audit des environnements de stockage, règle de sécurité et respect
des données à caractère personnel.
• Modélisation des objets métiers et définition des liens avec les objets techniques (Modèle logique et modèle physique).
• Pilotage d’un projet Data : Rédaction du PMP, Fiche projet, Feuilles d’arbitrage pour le budget , COPIL (Comité de pilotage) et COPROJ
(comité projet ou COSUI comité de suivi)
• Coordination avec les métiers pour le cadrage des besoins : Données nécessaires, besoin comptabilité analytique (Maille fine), besoin
comptabilité générale (Maille agrégée).
• Choix de l’architecture des flux depuis les systèmes amonts jusqu’au DataLake : Intégration des flux par PETRA (Axeway) et définir
la stratégie et la doctrine des rejets via un outil INTERPLAY.
• Définition du catalogue des données (Inventaire, cartographie), Analyses des sources des données (système sources, dimension,
usage, contraintes d’intégrités, redondance).
• Sécurisation des données : définition des données à caractère personnel ou données réglementaires.
Mois. (Projet en anglais)
Mission : Mise en place de la culture de gouvernance des données, Architecture cible des données.
• Animation des formations sur les différents acteurs de la gouvernance des donnes (Data Manager, data Product owner, Data
analyste…)
• Cartographie des données : Domaine Métier, Responsabilité, Sécurité et fiablité.
• Analyses des sources des données (système sources, dimension, usage, contraintes d’intégrités, redondance) ,
• Découpage du projet en périmètre Métier (Comptabilité, contrôle de gestion, Scoring …) (Domaine)
• Classification des données (définition du système responsable, définition du Master Data)
• Proposition d’une architecture cible : Proposition d’une étude sur les avantages et inconvénients d’une solution centralisée (Data
Lake ou Dataware house) out une architecture décentralisée (Data Mesh)
• Sécurité des données (Règle RGPD).
• Etude sur les outils de gouvernance des données. (Collibra, Data Galaxy)
Mission : Mise en place d’un infocentre.
• Cadrage et étude du besoin métier
• Définition du catalogue des données (Dictionnaire des données)
• Spécification et conception d’un Datawhare house et d’un ensemble de DataMart par Métier
• Architecture technique de la solution ; Gestion des versions et gestion de la mise à jour par Delta
• Analyse des données : Solution BI avec Qlik Sense
• Accompagnement des utilisateurs. Création des Datamart par M2tier : Risk, Compta, AML, Contrôle de gestion
• Définition des règles de sécurités des données.
• Pilotage du projet (organisation des comités de suivi et de pilotage)
• KPI et ROI du projet.
• Méthodologie Agile
Mois. (Projet en anglais)
Mission : Intégration de la solution CASSIOPAE (56 mois) : Hyundai (Séoul- Pékin, 36 mois : de juillet 2011 à juin 2014), ARKEL (8 mois à
Londres, de septembre 2014 à juin 2015), Volkswagen (France, 12 mois : de juillet 2015 à juin 2016).
• Ateliers d’expression des besoins (Planification des Workshops et des Démo CASSIOPAE)
• Cadrage du projet (phase HLD)
• Document de cadrage, Définition des Interfaces (standards et spécifiques)
• Cadrage du périmètre fonctionnel,
• Mapping des données des différentes interfaces et pour le DWH métier,
• Stratégie de Migration des données (Volumétrie, Nettoyage, périmètre)
• Interface avec les systèmes comptables (Export des écritures comptables générées dans CASSIOPAE)
• Conception des états règlementaires (Notice) (Interface avec les banques centrales ou les crédits bureaux)
• Stratégie de test d’intégration (les différents scénarii),
• Optimisation des traitements d’extraction des données, Conduite du changement et gestion des habilitations,
• Conception d’un outil de test automatique basé sur l’IA en intégrant une machine Learning pour la génération des tests et la création
d’un langage naturel simple pour la rédaction des tests
Mission : Conception d’un Dataware House Temps Réel sur les défauts des véhicules produits dans les usines PSA du monde entier (sauf
Chine).
• Interface avec les Systèmes Opérationnels PSA et les automates de Tests électriques et électroniques.
• Définition Animation des Ateliers de cadrage du projet (SCOPE)
• Sensibilisation sur l’importance des données avec les services Métiers
• Découpage des données par métier
• Modélisation du processus Métier (contraintes temps réel)
• Cartographie des données du périmètre du projet (plusieurs sources de données avec redondance)
• Définition du dictionnaire des données (Origine de la données, système de référence, classification des données), Analyses des
sources des données (système sources, dimension, usage, contraintes d’intégrités, redondance),
• Étude de l’impact de la centralisation de l’information,
• Définition de la nouvelle architecture des données (Basé sur le CDC : change Data Capture pour la réplication des données en temps
réel),
• Définition des axes d’analyses (les dimensions) et les tables d’agrégats et les tables de faits (Architecture en étoile),
• Validation du dictionnaire des données et de la nouvelle architecture (Métier),
• Conception des ODS (Staging Area) / DWH (Agrégat des données) / Data Mart (vision Métier),
• Organisation des développements (3 Pays France / Brésil et Espagne), Alimentation des ODS (alimentation en Temps réel VIA le CDC),
• Alimentation du DWH et des Data Mart (le temps réel est assuré par des vues matérialisés, l’alimentation physique se fait toutes les
nuits par batch), Organisation des tests E2E, de la recette utilisateur.
Projet Mise en place d’un système de gestion des rayons (marchandising, livraison, gestion des stocks, ventes et commandes en cours ou
prévisionnelles Metro Carry &Cash (Nanterre, 62 mois : de mai 2002 à juillet 2007).
Chef du projet (organisation de l’équipe et des comités, planification, suivi, reporting…), Animation de l’équipe MOE (6 personnes),
Relations avec les entités des sites : toutes les directions des achats de METRO (92 sites en France), Expression des besoins commerciaux,
organisationnels, spécification, Recueil et synthèse des besoins, Animation du groupe de travail (10 personnes), Modélisation des processus
cible de commande (food, non food), Analyses détaillées des données, Elaboration du dictionnaire de données fonctionnelles, Architecture
technique : choix de wavelink pour la Radio Fréquence (Pour les applications avec GAP check Terminaux spéciaux pour la gestion des
ruptures de stocks ou la saisie lors de la vente), Choix de MQSeries (WebSphere MQ) comme Middle ware, Développement des modules
GAP Check, OPM et MMS, Choix de l’outil de prévision de commande et responsable de sa mise en place pour tous les sites, Paramétrage
FOOD de SAF, Paramétrage NON FOOD de SAF, Développement des interfaces du progiciel SAF, Analyses et pilotage des différentes
recettes, Responsable de la maintenance corrective et évolutive des applications : gestion des bugs, affectation et suivi de livraison et mise
en production., Reporting (KPI) sur les ventes perdues dans les magasins, les KPI sur l’outils SAF (Performance de l’outils.
Mission : Migration d’Ekip version Caractère (Forms V3 ) vers une version Graphique (Forms V6i) pour l’éditeur LineData (Versailles, 52
mois : de janvier 1998 à mai 2002).
Pilotage d’une équipe de plus de 20 développeurs (entre Tunis et Paris), Développement d’une moulinette de migration d’un fichier IMP à
un fichier FMB (Forms caractère à forms graphique), Migration du code SQL dans les fichiers IMP à des API PLSQL, Migration du workflow
(Gestion administratif dans EKIP), Responsable d...