IDQ (Informatica Data Quality) permet aux équipes métiers de contrôler les processus de qualité de données. En effet, IDQ (Informatica Data Quality), permet aux utilisateurs d'identifier les problèmes de qualité de données cachés, d’écarts, d’incohérence et d’incompatibilité entre les sources de données et au sein de, chacune d’elles. IDQ regroupe dans une seule solution de puissantes fonctionnalités de nettoyage de données, de rapprochement, de reporting et de surveillance de la qualité de données.
• Design and Implement a Data pipelines for Datawarehouse, Data Mart
• Implement Enterprise Data Catalogue (IDMC) for Instrument Data Domain
• Role: Technical leader of Data Integration Team
• Design and Implement a Data Hub as A Service
• Role: Technical leader of Datahub team
• Responsible for Data Lake projects of Quality department, agile methodology
• Driving an offshore technical team
• Incident management and coordination
⦁ Responsable Modélisation d’une solution Datawarehouse pour un fournisseur d’énergie
⦁ Animation des Workshop expression des besoins et rédaction des KPI métier
⦁ Mise en place de l’approche Kimball pour concevoir le modèle ODS, le modèle Datawarehouse (modèle en étoile et SCD 2) et les Data Marts
⦁ Rédaction des spécifications fonctionnelles et techniques des jobs ETL pour alimenter le modèle mis en place
• Environment: Cosmo Call, SQL Server 2012, Talend 7.1
• Responsible for functional and technical ETL specification documentations
• Responsible for Designing ODS, DWH and DM models
• Responsible for Facts and Dimensions ETL jobs implementations
- 3 -
⦁ Responsable Mise en place d’un système décisionnel (temps différé) pour une plateforme Centre d’Appels en Cloud
⦁ Concepteur du modèle ODS, Datawarehouse et Data Marts (modèle en étoile et SCD 2)
⦁ Responsable rédaction des spécifications fonctionnelles et techniques des jobs ETL
⦁ Responsable Conception, développement, test et validation des jobs alimentation ODS et Dimensions du Datawarehouse
⦁ Environnement et Technologies : Cosmo Call, SQL Server 2012, Talend 7.0.1, ER Builder, CentOS 7
⦁ Responsable Mise en place d’une solution Dashboard temps réel des KPI des centres d’appels
⦁ Responsable Conception d’une architecture lambda (cohabitation des traitements en batch et des traitements temps réels)
⦁ Dashboard temps reel : Nifi, Kafka, Spark, Scala, Druid et Superset
⦁ Data Lake temp différé : Nifi, Kafka, Hbase, Spark, Scala
Senior Data Modeler: Modeling a Datawarehouse solution for a supplier of energy
• Animating Workshops of business needsspecification and defining business KPIs
• Usage of Kimball approach to design the Datawarehouse model and Data Marts
• Writing the technical specifications of the ETL jobs to feed the model put in place
• Environment and Technologies: SQL Server 2012, ER Builder, Excel
• Datawarehouse Design, Data Modelling, Creating functional and technical ETL specifications
• Complex GreenPlum process development, test and validation
• Complex Informatica ETL process development, test and validation
• Advanced Performance Tuning for the daily load process.
• Project Management (workshop leading, team management, alert reporting, progress monitoring)
• ETL process development, test, and validation
• ETL process design, Functional and Technical specification validation
• Design Data Warehouse model, Design Operational Data Store model, Design Data Mart model
• Shell, PLSQL scripting
• Tools: TALEND ETL, ORACLE data base, Shell UNIX
• Design and development of ETL mappings responsible for migration of data since several ERP (+40)
towards SAP with Informatica POWER CENTER
• DATA Quality control with Informatica DATA QUALITY (IDQ)