Périmètre : Manager un Projet Data (une équipe de 7 développeurs off-shore au Portugal dont 03 UI/UX
Design, 04 développeurs applicatifs) à travers plusieurs pays pour mettre en place une application unique
permettant aux managers BO (Back-Office) ainsi qu’aux équipes du FO (Applications de Trading, et de suivi
des Opérations) d’avoir un outil de data gouvernance des anomalies qui peuvent empêcher la réconciliation des
opérations qui s’opèrent entre ses 02 pôles clés.
L’équipe est gérée en full devops sur le build+run. En termes d’architecture on est sur du Caas
(Container As Service : mélange de Iaas +Paas) utilise Azure ; mais aussi Google Cloud Platform (GCP)
sur lequel le FINLAKE est hébergé et aussi Vertex AI pour le suivi du CI/CD (intégration &
Déploiement Continue).
Cet outil aura aussi pour but de contrôler, de suivre selon les profils utilisateurs le routage ainsi que la
remédiation. Pour se faire j’avais la charge de :
Management Projet
• Définir l’assiette de référence certifiée & unique de l’ensemble du périmètre BPCE servant de référence aux
calculateurs et reporting Finance (FINLAKE)
• Identifier et Prioriser les use cases métiers en constituant un product backlog dédié
• Découper les priorités et organiser la roadmap
• Définition des roadmaps Data : Cadrage, Recommandations et Delivery. Animation des comités France.
• Gestion d'équipe (07 FTE).
• Gestion du budget Data France (Capex & Opex)
• Accompagnement des équipes business : Data Analysts, Data Scientists, Data Engineers, Product Lead
• Accompagnement des développements : Google Cloud Platform (GCP), Power BI, Kafka, etc.
• Accompagnement du Data Architecte France
• Définition des changements (identification, documentation, analyse d’impact, plan d’action et mis à jour des
plans associés)
• Estimation des tâches avec les développeurs via scrumpoker
• Gestion itérative des changements (mineurs, modérés, majeurs, omis) ainsi que des processus affiliés
• Comitologie par sprint: Backlog Refinement, Sprint Planning, Daily meeting, Retrospective, Démo, COPIL
• Rétrospectives de Sprint toutes les 3semaines (actions non réalisées, actions réalisées, points positives et à
améliorer, prévisions pour le next sprint)
• Définir la matrice RACI des profils Utilisateurs (pilotes, Remédiateurs, Opérationnels)
• Définir le diagramme de cas, le BPMN ainsi que du Product lifecycle (cycle de vie des anomalies, plan de
remédiation, routage)
• Dresser le diagramme Gantt contenant le WBS rattaché au MVP incrémental.
• Évaluer les coûts de la solution, monitorer le ROI via Power BI
• Synchroniser les Portfolio Epics et les epics Jira, créer les box agiles ainsi que les itérations sur BigPicture
Application Roll-out
• Identifier et Proposer un outil de data visualisation (solution identifiée : Power BI)
• Accompagner les parties prenantes, organiser les workshops
• Assurer la rédaction, la priorisation et la planification des users stories techniques KAFKA Streaming
Événementiel (évènements qui transitent via des tunnels/topics publiques ou privés selon l’usage i.e: tunnels
bruts, nettoyage) ainsi que les users stories modélisation FIGMA (simulation interface Application Web), et des
Uses Cases Power BI.
• Organiser et animer le sprint planning et affiner les users stories correspondantes en collaboration avec les
développeurs KAFKA Streaming, des modélisateurs FIGMA
• Identifier les besoins et définir les Dashboard Power BI (définitions des filtres, KPI, bookmarks, group users)
• Participation à l’élaboration et l’optimisation des dashboards et KPI Power BI (Desktop, app Web)
• Présentation aux managers BO et au FO des dashboards sous App (pie chart, chart bar, météo, zone géo, TCD)
• Recueillir, analyser et formaliser les besoins métiers en epics, features et users stories dans JIRA
• Concevoir des Proof of concept POC (1 fois par Sprint) sous forme de présentation Powerpoint devant les
sponsors du Projet, contenant les nouvelles fonctionnalités implémentées en corrélation directe avec le backlog,
ainsi que des next steps à venir sur le prochain sprint sur l’appli via Kafka, sur la modélisation d’interface
FIGMA et sur le dashboarding Power BI.
• Migration des features de Collibra vers Zeenéa
• Préparer et alimenter le dictionnaire de données, ainsi que les data owners dans l’outil zeenea
• Animer (État d’avancement) et participer au COPROJ
• Identifier les goulots d’étranglement (budget, ressource) et y remédier
• Suivre les indicateurs de performances et identifier les leviers d’optimisation.
• Mettre en place une stratégie de test globale par environnement et suivre leur exécution via X-RAY et JIRA
• Suivre le déploiement et contrôler les livrables en intégration / Production
Périmètre : Manager un Program Data à travers plusieurs pays pour une seule application pour unifier l’offre
de produits et proposer une expérience numérique standardisée, intelligente et facile d’utilisation aux clients
dans 4 pays (Espagne, Italie, France, République Tchèque).
Use case1 : Gouvernance de données relatives au Trading &Risque de contrepartie
Use case 2 : Gestion des initiatives & gouvernance de données sur la réglementation FCRM (Financial Crime
Risk management)
Use Case 3 : Gestion des initiatives KYC et gouvernance des données associées.
Management Projet
• Définir, prioriser les besoins réglementaires locaux (MPS, KYC, FCRM) et soumettre au COPIL Local pour
validation budgétaire, postérieure avec le Groupe
• Planifier des itérations
• Définition des changements (identification, documentation, analyse d’impact, plan d’action et mis à jour des
plans associés)
• Gestion itérative des changements (mineurs, modérés, majeurs, omis) ainsi que des processus affiliés
• Créer et Animer les sessions Agiles : Sprint Planning, Daily Meeting, Revue Sprint et Rétrospective de Sprint
• Rendre Compte au Chief Data Officer (CDO) d’ING France et manager le backlog d’une squad Agile Scrum de
10 personnes (dont 3 ressources offshore en Inde),
• Représenter le département Data Management aux cérémonies agile entre tribes et entres pays,
• Participer aux comités de suivi avec l’Executive Management basé à Paris, Amsterdam et à Madrid,
• Assurer la rédaction, la priorisation et la planification des users stories en étroite collaboration avec les métiers,
• Organiser et animer le sprint planning et affiner les users stories correspondantes en collaboration avec les
développeurs,
• Recueillir, analyser et formaliser les besoins métiers en epics, features et users stories,
• Animer (Etat d’avancement) et participer au COPROJ
• Identifier les goulots d’étranglement (budget, ressource) et y remédier au cours de nos ateliers MIRO
• Suivre les indicateurs de performances et identifier les leviers d’optimisation.
• Initialiser, gérer et Piloter Projet Mifid
● Faire l’étude de faisabilité du projet d’automatisation des indicateurs Mifid soumis par la Compliance
Group en étroite collaboration avec la Compliance Locale et les POs Concernés ET piloter le projet
Gouvernance data
- Concevoir le data lineage :
• Suivre et gérer avec le data steward la gestion du cycle de vie des données dans le catalogue de données IGC
• (Notamment la collecte, le stockage, le traitement, l’analyse et surtout la réutilisation de la donnée)
• Cartographier les golden sources via des ateliers dit « data cooker » où on échange avec les products owners
ainsi que les data owners et data stewards pour déterminer les Golden Sources sur lesquelles on s’appuiera pour
attribuer les Data owner et data stewards.
• Data definition : Définition des Données Business
- Data Mapping sur les besoins Métiers Réglementaires Groupes via Esperanto Warehouse Group & Local
• Coordonner les réponses aux besoins de données opérationnelles, décisionnelles et réglementaires group et
local
• Coordonner les spécifications fonctionnelles ainsi que les développements concernant l’ingestion de la donnée
des golden sources vers le datalake local, ensuite communiquer les changements opérés sur le Modèle au
groupe.
• Suivre l’ingestion des données du local datalake vers le Global
• Participer à la co-création des données niveau group avec les responsables de chaque Pays filiale ING (séance
de modification du Modèle Logique du Datalake Group en fonction des changements survenus Localement)
- Identifier, Valider et assigner les Business Terms (BT) avec le métier et affilier le Data Steward en charge du suivi ainsi
que le data owner dans le catalogue IGC (Information Governance Catalog by IBM)
- Évaluation et Optimisation De la Qualité de la donnée :
● Mettre en place les indicateurs de suivi de qualité de donnée notamment des requêtes automatisées permettant
d’avoir une visibilité sur les 04 indicateurs clés de suivi de Data Quality :
la complétude, l’unicité, la précision et la consistance de la donnée
● Data Quality Check : Vérifier les performances des livrables via des dashboards automatisés de suivi de
livraison en Intégration et en PROD dressant le rapport des incidents ainsi que leur suivi
- Coordination et suivi du maintien du Référentiel des données à jour via l’outil GRDM d’IBM
- Assurer la conformité des données au CDO en vérifiant le respect des normes standardisées et Key Control Testing
-