LVMH 08/2023 – AUJOURD’HUI
CONSULTANT DATA ARCHITECT
CONTEXTE PROJET En tant que consultant Data Architect, j’ai travaillé au sein de l'équipe Beauty Tech LVMH sur un projet mondial visant à concevoir et développer un produit « Application Pricing » permettant l’établissement des prix de tous les produits des Maisons Dior/Guerlain/Kenzo/Givenchy/LEOWE... Anaplan/SAP/AX/GCP/BigQuery/SQL/DBT/Python/PBI/Snowflake
PRESTATION REALISEE
Projet Pricing (BUILD)
Travailler en étroite collaboration avec les parties prenantes afin de comprendre les besoins métier.
• Définition de l'architecture data cible (différentes composantes process métiers/techniques et Infra)
• Mise en place des concepts de gestion de sécurité utilisateurs par Maisons (Dior/Guerlain/LFB/LOEWE...)
• Conception des modèles de données cibles en utilisant des concepts de bonnes pratiques d'optimisation (partitionnement, regroupement, dénormalisation, agrégations, répartition)
• Design des uses cases métiers sous Anaplan/GCP/PBI.
• Lineage GCP
• Participation, expertise et best practices sur le développement des flux sous GCP/SQL/Python/Airflow/Anaplan
• Déploiement dans les environnements UAT/Production.
• Coaching technique des Data Engineers Junior.
• Documentation (confluence)
Comité Design Authority :
Durant cette mission je faisais partie du comité Design Authority de la Beauty Tech LVMH:
• Exposition et analyses de problématiques liées à la Data Platform
• Etude d’évolutions de l’infra
• Design des uses cases métiers complexe
• Validation des choix techniques
• Présentation de nouvelles fonctionnalités GCP
ENVIRONNEMENT TECHNIQUE GCP, BigQuery, SQL, DBT, Python, Google Storage (Buckets),CloudRun Google Composer, Airflow, SAP, AX, Anaplan, Power BI
CARREFOUR LINKS 07/2021 – 06/2023
CONSULTANT TECH LEAD DATA
CONTEXTE PROJET En tant que consultant senior Data Architecte/Tech Lead, j’ai travaillé au sein de l'équipe Carrefour Links sur des projets mondiaux visant à stimuler et développer des produits data via GCP/BigQuery/Looker
PRESTATION REALISEE
Projet Supply (BUILD)
Travailler en étroite collaboration avec les parties prenantes métier afin de comprendre les besoins métier.
• Définition de l'architecture data cible
• Mise en place des concepts de gestion de sécurité utilisateurs
• Mise en place de la sécurité de la donnée à la ligne.
• Conception du modèle de données cible en utilisant des concepts de bonnes pratiques d'optimisation (partitionnement, regroupement, dénormalisation, agrégations, répartition) pour prendre en charge de grandes quantités de données (9 pays, environ 1 PB).
• Développement des flux/SQL DBT/Python.
• Conception du projet Dataviz sous Looker : configurations, modèle, vues, tables dérivées, dimensions, mesures, sécurité, attributs des utilisateurs, explorations.
• Développer des tuiles et des tableaux de bord.
• Déploiement dans les environnements UAT/Production.
• Participer à la mise en place du workflow (CI/CD), Docker.
• Mise en place d’une solution de monitoring pour le suivi des performances quotidien (logging, alerting, data quality)
• Coaching technique de de 5 Data Engineers.
• Documentation (confluence) des différents travaux réalisés
Projet Datashopper (RUN) :
• Travailler en étroite collaboration avec les parties prenantes de l'entreprise pour comprendre les besoins de l'entreprise et fournir des solutions adaptées (adapter le modèle de données existant et intégration de nouvelles données)
• Définition des concepts d’optimisation des requêtes pour améliorer les performances via BigQuery et Looker.
Test de la conformité des résultats avec les besoins
ENVIRONNEMENT TECHNIQUE Google Cloud Platform: BigQuery, SQL, DBT, Python, Google Storage (Buckets), Google Composer, Airflow, Cloud Build, Looker, LookML.
L’ORÉAL 08/2020 – 07/2021
CONSULTANT DATA ANALYTICS
CONTEXTE PROJET Intervention au sein de l'équipe Demand Sensing (Tech Accelerator) en tant que Consultant Data Analytics GCP/Looker/Power BI :
PRESTATION REALISEE
• Travailler en étroite collaboration avec les parties prenantes afin de comprendre les besoins métier sous forme de Mockups.
• Participer à la définition de l'architecture cible du modèle de données principal (Core viz Data model).
• Conception d’un datamart dénormalisé avec du patitioning, clusturing sous BigQuery.
• Conception des pipelines de données sous SQL / Pyhton (Framework similaire à DBT).
• Développement de tableaux de bord Looker, avec un temps de réponse optimal pour les KPI (Looker/LookML)
• Expertise technique et fonctionnelle sur les fonctionnalités et les règles métier mises en œuvre dans les rapports Power BI, et reproduction de celles-ci dans la nouvelle solution de visualisation des données sous Looker.
• Test de conformité des résultats par rapport aux besoins.
• Déploiement
ENVIRONNEMENT TECHNIQUE Google Cloud Platform, Google Big Query, Looker, LookML, GCP Cloud function, Terraform, Python, Power BI
BEIN MEDIA GROUP 01/2020 – 07/2020
CONSULTANT DATA ARCHITECT
CONTEXTE Mise en œuvre d'une nouvelle plateforme OTT
PRESTATION REALISEE
En tant que Data Architect Senior, dans un environnement de travail international, mon rôle consiste à gérer l'ensemble du processus des projets suivants avec différentes équipes des régions MENA, FRA, CAN/US :
• Participation à la mise en œuvre d'une Data Platform sous (AWS/GCP/Looker).
• Gestion du projet de migration des données d'un CRM hérité vers Zuora (Cloud Plateform).
ENVIRONNEMENT TECHNIQUE GCP (Big Query,Bucket, Data Studio), AWS, Power BI, Looker
LAGARDÈRE TRAVEL RETAIL 07/2017 – 01/2020
CONSULTANT DATA ARCHITECT
PROJET OU CONTEXTE Mise en œuvre d’un Data Platform pour piloter les activités commerciales, marketing et comptables de plus de 1 000 points de vente à travers la France dans différentes zones de transport (gares SNCF, aéroports, boutiques hors taxes, etc.)
PRESTATION REALISEE
Au sein du département Architecture, j’ai travaillé sur la mise en place d’une nouvelle Data platform centralisée :
• Travailler en étroite collaboration avec les parties prenantes métier afin de comprendre les besoins métier.
• Participer à la définition de l'architecture cible et le modèle de données principal (Core viz Data model).
• Création de datamarts pour gérer des volumétries de données importantes (centaines de térabytes)
• Optimisation des requêtes SQL pour améliorer les performances du traitement de grandes quantités de données.
• Gestion et participation au développement technique : Cubes SSAS Tabular, Power BI (Azure), TALEND, PL/SQL.
• Gestion de la sécurité à la ligne
• Gestion de la sécurité et accessibilité des données via AD Group.
• Test de conformité des résultats par rapport aux besoins.
• Industrialisation des flux de données en utilisant le robot Axway
• Documentation des travaux réalisés
ENVIRONNEMENT TECHNIQUE Suite MSBI 2016 (SQL SERVER, SSIS, SSRS, SSAS, Cubes Tabulaire, Power BI), Talend6.1, Oracle 10/11g/12C, AZURE,Axway
ENGIE 09/2015 - 06/2017
BI CONSULTANT SENIOR
PROJET OU CONTEXTE Participation à la mise en œuvre d'un nouvel entrepôt de données intitulé "Cristal Board" permettant la disponibilité des indicateurs de qualité de livraison (KPI).
PRESTATION REALISEE
Définition des exigences avec l'équipe métier.
• Ateliers : équipe métier, experts techniques, DBA, exploitation technique.
• Conception : modélisation, spécifications fonctionnelles et techniques.
• Gestion et participation aux développements techniques : MS BI 2012 (SQL Server, SSIS, SSRS), Tableau Software.
• Tests.
• Déploiement.
ENVIRONNEMENT TECHNIQUE MSBI 2012 (SQL SERVER, SSIS, SSRS, SSAS) Tableau Software Server, Service Now and SnowMirror
SISLEY 09/2014 - 08/2015
BI CONSULTANT SENIOR
PROJET OU CONTEXTE Projet de migration suite à la mise en œuvre d'un nouveau système ERP (SAP) :
PRESTATION REALISEE
• Définition des spécifications fonctionnelles et techniques.
• Conception du nouveau modèle de données (ODS, DWH, DTM).
• Développements techniques sur MSBI 2012.
• Tests
• Déploiement.
ENVIRONNEMENT TECHNIQUE Power AMC, Suite MSBI 2012 (SSIS, SSRS, SSAS)
PSA 11/2013 -08/2014
BI CONSULTANT SENIOR
PROJET OU CONTEXTE Mise en œuvre d'une solution de supervision permettant le suivi quotidien des performances du flux de données
PRESTATION REALISEE
• Validation de la mise en œuvre des nouvelles solutions.
• Collecte des exigences.
• Conception et modélisation des données.
• Développement technique : TALEND, PL/SQL, BO.
• Déploiement : environnements d'acceptation/production.
ENVIRONNEMENT TECHNIQUE BO XI3.1/BI4, PLSQL/Talend5.4, Oracle 11g.
2009 – 2013 : Plusieurs missions autour de la data & BI chez (France TV, France Agrimer, Elior…)