Professionnel spécialisé dans la création d'écosystèmes, la transformation numérique, les architectures de
data fabric et data lakehouses. Mon expertise permet aux organisations d'exploiter efficacement leurs données, favorisant ainsi
l'innovation et la prise de décision basée sur les données, tout en mettant en œuvre les principes du Data Mesh et en assurant
une gouvernance solide.
Data Strategy Development: Concevoir une stratégie de données alignée sur les objectifs de transformation numérique de
l'organisation, en identifiant les objectifs clés en matière de données et en élaborant une feuille de route pour les initiatives liées
aux données.
Data Integration Planning: Conception de stratégies d'intégration de données visant à simplifier le flux de données entre divers
systèmes et plateformes, favorisant ainsi la cohérence et la disponibilité des données. Expertise confirmée dans la gestion de
flux d'intégration de données complexes pour des pipelines de fabrication automobile, IoT et l'analyse de données en temps réel,
tout en démontrant une solide compréhension des architectures basées sur les données.
Cloud Data Architecture : Accompagnement dans l'évaluation, la sélection et la conception de solutions et de services de
données basés sur le cloud pour favoriser la scalabilité, la flexibilité et l'efficacité des coûts dans un environnement numérique.
Mon approche est alignée sur les cadres d'adoption frameworks pour garantir une intégration transparente et une optimisation.
Lakehouse Design: Détermination de l'architecture pour la transition des data lakes et des entrepôts de données monolithiques
vers une architecture de data fabric et lakehouse, avec une adoption claire de l'architecture Data Mesh.
Data Mesh: Expérience avérée dans l'implémentation d'une approche décentralisée du Data Mesh, où j'ai joué un rôle clé dans
la création d'une culture de données au sein de plates-formes de data lakehouse modernes. Expertise pratique dans la mise en
place d'une gouvernance de données fédérées au sein d'un écosystème collaboratif de données.
Data Governance : Implémentation des meilleures pratiques de la gouvernance des données et des procédures de gestion des
données, y compris la data ownership, la data quality standards, et la data lifecycle management des données, le tout dans le
but de maintenir l'exactitude des données. Création et maintenance de catalogues de données complets pour faciliter la
découverte et le partage des données au sein de divers domaines (démocratisation des données). Élaboration de stratégies
d'enrichissement des données visant à améliorer la qualité, la pertinence et l'utilité des données, garantissant ainsi que les
organisations maximisent la valeur de leurs actifs de données.
Data-driven architecture : Création d'architectures et de systèmes où les données occupent une position centrale dans la prise
de décision et les opérations commerciales, les transformant ainsi en une force motrice au sein de l'organisation
Architecture Diagrams & Documentations : Maintien d'une documentation exhaustive des processus d'intégration de données,
de diagrammes de flux de données, de diagrammes d'architecture (AD), de dictionnaires de données et de catalogues, dans le
but de faciliter le partage des connaissances et de garantir la conformité aux réglementations.
Expertise confirmée dans la conception et la mise en œuvre de solutions
d'intégration de données visant à assurer une gestion efficace des données, leur traitement et leur analyse au sein
d'écosystèmes de données modernes complexes. Compétence éprouvée dans l'utilisation de ressources basées sur le cloud et
d'outils open source pour générer des data-driven insights basés sur les données, offrant ainsi aux organisations des solutions
de données évolutives, performantes et rentables.
Cloud Data integration & Transition: J'ai dirigé l'intégration des données dans Azure Cloud ainsi que dans différents data lakes
et lakehouses ,Big Data. J'ai une solide expérience dans la migration des données entre plateformes, notamment de Cloudera
CDP à Palantir Foundry, Azure Databricks et Azure Synapse Analytics.
Data ingestion : J'ai orchestré l'ingestion en temps réel de flux de données ainsi que la création de pipelines par lots à partir de
sources diverses et hétérogènes, notamment SAP, IoT telemetry, RDBMS, DHW, API REST, etc., en utilisant des outils tels
qu'Azure Data Factory, Azure Event Hubs, Apache Kafka, Cloudera Flow Management CFM et Cloudera Stream Messaging CSM.
Data Pipeline Management : Construction de pipelines de flux de données pour automatiser le déplacement de données entre
les systèmes, garantissant des transferts efficaces et fiables pour divers cas d'utilisation critiques tels que la détection
d'anomalies en intelligence artificielle, la gestion des nomenclatures (BOM), la prédiction des prix d'achat, etc.
Data Mapping and Transformation : Analyse des besoins en données, mappage des sources vers les cibles et conception de
processus de transformation des données afin d'assurer la cohérence et la qualité, avec une expertise approfondie dans les
connecteurs de données et les protocoles pour les solutions basées sur les données et l'analyse en temps réel.
ETL Development: Création et maintenance de processus ETL (Extraction, Transformation, Chargement) pour déplacer, nettoyer,
transformer et préparer les données en vue de l'analyse et de la génération de rapports, en utilisant des technologies telles
qu'Azure Data Factory, Apache Spark, Apache Nifi - Minifi, Apache Kafka, ainsi que les connexions et synchronisations de
données avec Palantir.
Data Quality Assurance : Développement de procédures de validation et de nettoyage des données visant à assurer l'exactitude
et l'intégrité des données.
Monitoring and Error Handling : Surveillance des jobs d'intégration, identification des problèmes, création de processus de
gestion des erreurs pour une résolution rapide, et réalisation de vérifications de l'état de santé (health checks).
Data integration for global operational databases: Implémentation de l'intégration des données pour la traçabilité en utilisant
Azure Cosmos DB pour PostgreSQL (hyperscale) et l'optimisation des performances en mémoire pour les applications mobiles et
web avec Azure Cache for Redis.
Agile Project Management : Pratique de la gestion de projet Agile Scrum en utilisant Azure DevOps, assurant une exécution
efficace du projet et un alignement sur les objectifs de l'organisation.
Collaboration et Tests Collaboration étroite avec les équipes pour comprendre les besoins en données, réalisation de preuves
de concept (POC) et garantie que les solutions intégrées de données répondent aux besoins commerciaux.
Ingénieur Big Data avec une vaste expérience en transformation numérique des données.
Expert dans plusieurs plates-formes de data lakehouse, incluant le traitement des données, l'ingestion et l'analyse en temps réel,
le développement et l'optimisation de pipelines de bout en bout, ainsi que la gestion de la sécurité.
Data Processing: Responsable de l'ensemble du processus de développement des données, y compris la préparation, le
nettoyage et la transformation des données sur les plateformes Cloudera CDP, Azure Databricks, Azure Synapse Analytics et
Palantir Foundry.
Real-time Analytics : Conception de solutions d'analyse en temps réel pour les machines IoT en utilisant Azure Data Explorer et
le langage de requête Kusto, renforçant ainsi les capacités de prise de décision.
Data Ingestion : Gestion de données en temps réel et par lots en utilisant des outils tels que Kafka, Cloudera CFM & CEM, et
Azure EventHub pour une gestion de données delta/append efficace, y compris la capture des modifications (CDC).
Data Platform Management : Établir et administration des clusters Cloudera CDP et Databricks, garantissant la scalabilité,
l'optimisation des performances, la haute disponibilité et la fiabilité.
Data Warehousing: Utilisation d'Azure Synapse Analytics, Apache Impala, Hive et Kudu pour développer et gérer des solutions
d'entrepôt de données pour des données structurées.
Sécurité et conformité : Mis en place des mesures robustes de sécurité des données, des contrôles d'accès et de chiffrement
pour assurer la conformité aux normes de l'industrie et aux réglementations.
Data Storage Optimisation : Optimisation du stockage et de la récupération des données en gérant les métadonnées, en
améliorant les performances des requêtes, et en mettant en œuvre des formats de stockage en colonnes tels que Parquet /
Delta Lake pour les transactions ACID et l'historisation des données dans HDFS et ADLS.
Migration Cloud : Migration dee la plateforme de données en production de l'on-premises vers le cloud Azure, en veillant à faire
une transition avec une perturbation minimale.
Data Quality Assurance : Élaboration de contrôles de qualité des données et de processus de validation visant à maintenir
l'exactitude et la fiabilité des données.
Monitoring and Troubleshooting : Surveillance d...