EXPERIENCES
01/10/2023
Present
Carmignac – Azure Data Architect and EDM Platform Lead
(AZURE, ADF, Lake Storage, Databricks,CDC,Control-M,Postgresql,Azure
SQL DB , KeyVault, Azure Functions, Data management,Scala,Python, C#,
AzureDevops)
In my role as Azure Data Architect and EDM Platform Lead at Carmignac, I
take on a central role in the design and implementation of technical
architectures. My responsibilities include:
✓ Conducting thorough audits of existing architectures, providing
recommendations for their improvement, and adapting data
formats based on specific needs.
✓ Ensuring optimal data consistency and quality.
✓ Guaranteeing the efficient and secure operation of the EDM
platform, aligned with the company's strategic objectives.
✓ Defining the EDM Roadmap.
✓ Prioritizing technical projects.
01/03/2023-
Aujourd’hui
TotalEnergies – Architecte Data Azure
(AZURE, ADF, Lake Storage, Databricks, CosmosDb,Azure SQL DB ,
KeyVault, Azure Functions,Durable function, data galaxy, Python, Data
management)
Architecte Data au sein de la Tech Authority qui est une équipe au service
des squads de la Digital Factory.
Je travaille sur tous les aspects de l’architecture tout au long du cycle de vie
des produits développés par les squads : de l'idéation au déploiement.
Tâches :
✓ Responsable de l’évaluation des besoins et des usages en matière
de données au sein des différentes squads.
✓ Construire et valider les architectures Data
✓ Préconisation des solutions techniques de gestion de données (big
Data, stream, batch...)
✓ Mettre en place des outils pour faciliter le data management
✓ Assurer une veille technologique sur le sujet Data
✓ Surveiller l’efficience des bases de données et proposition des
mesures correctives ou évolutives (SQL server, Cosmos Db)
✓ Revues d’architecture tout au long du cycle de vie du produit
✓ Déblocage les squads en cas de problèmes techniques liés à
l’architecture
✓ Mise en œuvre de critères de sécurité avancées sur les projets en
Build
01/05/2022-
01/03/2023
AXA – Expert Data Platform Azure
(AZURE, ADF, Lake Storage, Databricks, ArchiMate , KeyVault, Azure
Functions,Delta table, data catalog, Python, pyspark)
Ma mission est multifacette et centrée sur la création de valeur à partir de
nos actifs de données. Parmi mes responsabilités clés, je travaille en étroite
collaboration avec le Chief Data Officer (CDO) pour élaborer une stratégie
visant à exposer nos données aux différents groupes au sein du datalake.
Une part importante de ma mission consiste à définir la roadmap du
datalake du groupe en collaboration avec l'équipe produit. Cette roadmap
oriente nos efforts vers la création et l'amélioration continue de
l'infrastructure de données, garantissant que nous répondons aux besoins
présents et futurs de l'entreprise.
Tâches :
✓ Aider le CDO à mettre une stratégie pour exposer les données aux
groupes sur le datalake
✓ Définition de la roadmap du datalake du groupe avec l’équipe
produit
✓ Mettre en place un référentiel de bonnes pratiques
✓ Analyse du model orienté objet - SILVA CMDB
✓ Mise en place d’une architecture data pour des MVPs en se basant
sur le DLK
✓ Elaboration d’un model conceptuel et d’un model technique
✓ Modélisation des cubes
✓ Développement et mise en place du model technique SILVA CMDB
✓ Développement des uses cases avec des Data labs adbks
✓ Mettre en place la data lineage et la cartographie des flux
✓ Optimisation des traitements
✓ Mettre en place des rapports en powerbi de qualité des données
✓ Administration du powerbi workspace
✓ Animation des workshops
✓ Evolution des pipelines CICD
Méthodologie : SCRUM
01/08/2021-
01/05/2022
SNCF Habitat –Expert Data
(AZURE, ADF, Lake Storage, Azure SQL DB, KeyVault, Azure Functions, DB2,
Powershell, Asp net core, WebAPI, Graph API, API Managment AS400,
COBOL)
Ma mission centrale consiste à façonner et à optimiser l'écosystème de
données de l'entreprise. Cela englobe une gamme complète de
responsabilités, allant de la conception de solutions de données robustes à
la formation de nos équipes sur les dernières approches de transformation
des données. J'assume également un rôle de leadership dans l'audit des
applications existantes et la proposition d'architectures de transformation
des données innovantes.
Tâches :
✓ Architecture de l’écosystème data
✓ Former les équipes sur les nouvelles approches de transformation
des données
✓ Audit sur les applications existante
✓ Proposition des architectures de transformation des données
✓ Mise en place d’une chaine CICD pour les projets en COBOL(AS400)
✓ Organisation de l’Azure DevOps
✓ Développement des web API
✓ Animation des workshops
Méthodologie : SCRUM
02/09/2021-
05/09/2021
Formateur Azure Data Facotry @ ambient-it
✓ Former une équipe composée des managers et des chefs de projet
Data sur sur L’ADF v2 sur 3 jours
30/06/2021-
02/07/2021
Action Logement Services – Formation & Conseil
MVP Microsoft (AZURE, ADF, Lake Storage, Azure SQL DB, KeyVault, Azure
Functions)
Formation d’une équipe de développement sur le stack Data Azure
Tâches :
✓ Mise en place d’une plateforme « Data » s’appuyant sur Azure
✓ Utilisation systématique de Azure Data Factory pour
l’implémentation des nouveaux flux de données
✓ Projets « Référentiels » choisis pour expérimenter la plateforme
✓ Environnement mixte : Azure + Data Center ALS + Sources de
données externes
✓ Workshop
Pipeline 1:
▪ Création des ressources
▪ Intégrer les données à partir d’un fichier xls
▪ Création de LinkedServices
▪ Création d’un trigger
▪ Création des Datasets
▪ Paramétrage de Pipeline
▪ Configuration des activités
▪ Monitoring et tests
Pipeline 2:
▪ Récupération des données à partir d’un webservice
▪ Activité de copie vers une base Azure SQL Db
▪ Monitoring et tests
Equipe de 4 personnes
05/07/2021-
09/07/2021
NABU – AUDIT, Conseil et formation
MVP Microsoft (AZURE, ADF, Lake Storage, Databricks, CosmosDB
,KeyVault,Python, Azure Functions)
Audit d’une solution d’intégration et déploiement des données
Tâches :
✓ Analyse des besoins
✓ Audit de l’architecture déjà mise en place
✓ Mettre en place d’une architecture qui permet de faire des OCRs,
intégration, traitement des données
✓ Mettre en place un trigger qui permet l’intégration des données
des serveurs On-prem
✓ Animation des workshops
✓ Formation de l’équipe de développement
✓ Rédaction des comptes rendus
Equipe de 5 personnes
12/2019-
08/2021
EDF – Tech lead Data platform
(SSIS,SSRS,SQLServer,TSQL,Ps,Jenkins)
Architecture et conception d’une application de calcul des écarts
énergétique
Tâches :
✓ Création d’une architecture technique - DAT
✓ Conception technico-fonctionnels
✓ Préparation des environnements (DEV, REC, IQ et PROD)
✓ Réalisation des développements
✓ Entraide technique avec les autres membres de l’équipe et les
autres développeurs
✓ Développement des fonctionnalités en respectant les bonnes
pratiques définies
✓ Mettre en place un modèle décisionnelle
✓ Rédaction de nomenclature technique pour chaque projet
✓ Définition de règles des gestions pour les logs d'anomalie et
d'erreurs
✓ Implication des équipes reporting dans le processus
✓ Animation de l’équipe du développement
✓ Correction des anomalies fonctionnelles et/ou techniques
✓ Participation aux différentes communautés techniques
✓ Pilotage des mises en productions
✓ Maintenir le repos Git du projet
✓ Mettre en place des pipelines technique avec JENKINS et
Powershell
✓ Audit des bases de données existantes
✓ Dimensionnement des espaces de stockages et des serveurs
✓ Surveillance des applications via des tableaux de suivi
✓ Configuration SQLServer
✓ Configuration et administration des rapports SSRS
✓ Gestion des habilitations SQLServer, SSRS et JENKINS
Méthodologie : SCRUM
07/2019 –12/2019
AIR LIQUIDE – Lead Data Platform -chez Microsoft Services
(Azure, Azure data factory, Data flow, Azure Devops,Azure blob storage,
Sql , SqlServer , SSIS,SSAS, Databricks)
Intervenir sur plusieurs projets d’analyse de donnés pour construire des
rapports de calcul des profitabilités des commerciaux et pour le calcul des
couts des maintenances des usines
Tâches :
✓ Implémentation/Maintenance des pipelines Azure data facotry
✓ Migration ADF v1 à l’ADF V2
✓ Maintenance des notebooks Databricks pour les préparations des
données
✓ Modélisation et mise en place Data warehouse/Datamart
✓ Création des cubes SSAS Tabular en SQL Server
✓ Mise en place des solutions SSDT Base de données pour
Industrialisation des livraisons
✓ CI / CD
Méthodologie : SCRUM
01/2019 –
07/2019
CREDIT AGRICOLE – Ingénieur Études et Développement
web et Data
(ASP.NET MVC 5, Web API 2, Angular 7, Entity Framework 6, HTML5,
Material design, SQL Server 2014, Visual Studio 2017, VS code, GIT, TDD,
log4net)
Projet : GECKO-INCA, destiné pour la gestion des compagnes de formation
chez Crédit Agricole.
Tâches :
✓ Développement d’un module qui permet de compter le nombre
d’heures consommées sur une formation
✓ Développement des procédures stockées
✓ Ajout des fonctionnalités sur la partie web
✓ Développement des web services
✓ Maintenance des rapports SSRS
✓ Scripts SQL pour automatiser l’import ...