Moncif - TECH LEAD DATA ENGINEER SENIOR
Ref : 200221E001-
Domicile
92500 RUEL
-
Profil
Consultant, Développeur, Data Engineer (31 ans)
-
MobilitéTotalement mobile
-
StatutEn portage salarial
-
Tarif Journalier MoyenVoir le tarif

Expérience professionnelle
Disneyland
Depuis le 01/05/2022
Data Engineer
Contexte/Equipe : Disneyland Paris vit actuellement une transformation Data en se dotant d’une équipe Data
centralisée, pour servir tous les départements de l’entreprise et d’une Data Platform sur AWS permettant ainsi à
DLP de passer dans une nouvelle ère pour exploiter au mieux ses données riches et variées issues (digital,
boutiques, restaurants, hôtels...),ma mission consiste à :
Développer et maintenir un stack Data
Mettre en place la data pipeline : Collecter les données sur notre datalake (S3), développer et maintenir les flux d’entrée
et de sortie de la DP sur des données internes et externes, en batch et real-time, jusqu’à l’activation des données
(Snowflake / Tableau, APIs…)
Transformer la donnée collectée. Enrichir et maintenir notre Data Warehouse (Snowflake) -> ETL - Assurer l’intégrité
du cycle de vie de la donnée – Dessiner.
Mettre en place et maintenir tout le pipeline de production
échanger avec nos collègues The Walt Disney Company aux US par exemple pour mettre en place des data shares entre
les instances Snowflake de l’US et Paris
Expériences professionnelles
******** MONCIF
Télé : ********
Mail : ********
Mise à jour : Février 2018 Page 2 sur 4
Proposer, mettre en place et accompagner sur les best practices au sein de l’organisation Data (Agile, code review, …)
Gérer les enjeux de la gouvernance de données.
Technologies clés AWS Glue / BATCH / S3 / CodeBuild / Snowflake, Python, SQL, Git, SodaSQL,
Apache Spark, DevOps (Docker, CI/CD etc.), Terraform, Automic, Postman.
Bouygues Télécom
Depuis le 01/08/2021 jusqu’au le 10/04/2022
Fonction Data Engineer
Projet Au sein de la DSI Bouygues Télécom, l’intervention porte sur l’équipe data-valuefactory qui pour
but de monétiser les données des Box Bouygues avec différents clients et partenaires, il s’agit
d’intervenir sur toute la chaine de traitement des données du Datalake et du Datawarehouse
Bouygues.
Mission(s) et
réalisations
Recueil des besoins et rédaction des spécifications techniques
Conception des flux TERADATA et HADOOP.
Développement de scripts Hive / Impala / TERADATA (BTEQ , TPT ) pour l’intégration de
données dans le Datalake
Développement de scripts Hive / Impala d’export des fichiers à partir de hadoop et TEARDATA.
Développement des Jobs VTOM.
Superviser et évoluer les flux KAFKA.
Communiquer avec les partenaires Bouygues TELECOM pour mettre en place des nouveaux
flux.
Automatisation de la chaine de traitement
MCO des flux de traitements des données
Technologies clés Teradata 16.2 (BTEQ, TPT,Fastload ), Hadoop Cloudera (SPARK, SQL Hive / Impala
), KAFKA , GOOGLE CLOUD , VTOM, Shell Unix , JIRA, MobaXterm, GitLab , Cloudera , HUE, GIT, RoyalTS
, Framework ARCANE.
Bouygues Télécom
Depuis le 01/08/2021
Fonction Data Engineer
Projet Au sein de la DSI Bouygues Télécom, l’intervention porte sur l’équipe data-valuefactory qui pour
but de monétiser les données des Box Bouygues avec différents clients et partenaires, il s’agit
d’intervenir sur toute la chaine de traitement des données du Datalake et du Datawarehouse
Bouygues.
Mission(s) et
réalisations
Recueil des besoins et rédaction des spécifications techniques
Conception des flux TERADATA et HADOOP.
Développement de scripts Hive / Impala / TERADATA (BTEQ , TPT ) pour l’intégration de
données dans le Datalake
Développement de scripts Hive / Impala d’export des fichiers à partir de hadoop et
TEARDATA.
Développement des Jobs VTOM.
Superviser et évoluer les flux KAFKA.
Communiquer avec les partenaires Bouygues TELECOM pour mettre en place des nouveaux
flux.
Automatisation de la chaine de traitement
MCO des flux de traitements des données
Technologies clés Teradata 16.2 (BTEQ, TPT,Fastload ), Hadoop (moteur Hive / Impala ), KAFKA ,
GOOGLE CLOUD , VTOM, Shell Unix , JIRA, MobaXterm, GitLab , Cloudera , HUE, GIT, RoyalTS ,
Framework ARCANE.
ENEDIS
Depuis le 01/07/2020 jusqu’au le 30/08/2021
Fonction Data Engineer : TERADATA INFORMATICA
Projet Projet Bilan convergent
Equipe : BABYLAN : Générer des bilans pour publier les données règlementaire/optionnelle
conformément aux engagements de ENEDIS
Mission(s) et
réalisations
Générer des bilans globaux de consommation et de production à partir des données
Collectées Par ENEDIS :
Bilan Convergent (BGC) // Bilan Multi-Mailles (BMM) // Article 23 // Article 176 // Bilan Libre
Créer et implémenter les règles de calcul, ajouter des nouveaux indicateurs,
Mailles, axes d’analyse dans le moteur de calcul des bilans.
Visualiser les données d’énergie par mailles géographique et segmentaire.
Optimisation des traitements et des requêtes SQL (BTEQ, TPT, tables bi-temporal …).
Gestion de la base TERADATA (espace, skew, partitionnement, indexation)
Création des scripts de sauvegarde et d’import des données
Technologies clés TERADATA, INFORMATICA, SQL, SCRIPT SCHELL, Python , Modélisation BDD
, JIRA, GitLab, BULK API, openshift, Jenkins, kubernets …
ENGIE Digital – 06/2018 à aujourd’hui
► Poste : Data & Cloud Product Owner
► Projet : Migration vers le Cloud Amazon
▪ Travail au sein d’une équipe et dans un contexte pluridisciplinaire (Product Owners, Scrum
Masters, Dev Team, Architectes, Data scientists, etc.)
▪ Définition du besoin avec les métiers et rédaction des US
▪ Gestion et priorisation du Backlog et de la dette technique
▪ Animation des cérémonies SCRUM (Sprint Planning, Refinement Backlog, etc.)
▪ Pilotage d'un projet de migration de la plateforme Big Data (Hadoop) vers AWS
▪ Développement d’API d’export des données de campagnes Marketing vers les prestataires
d’ENGIE et industrialisation de la solution sur AWS
Environnement technique : Python 3.7, Hadoop Cloudera, Hue, Spark, Hive, Pig, Text Mining, Machine
Learning, NLP, MLIB, Git, GitLab, BULK API, REST API, Jenkins, Docker
► Poste : Data Engineer
► Projet : Amadeus - Intégration et restitution des données
▪ Intégration des nouveaux flux INFORMATICA
▪ Implémentation des règles de gestions TERADATA (évolutions), des extractions et intégration
des nouveaux flux
▪ Interprétation du besoin brut en RGs fonctionnelles et mise en œuvre de ces règles
▪ Évolution du modèle des données, optimisation des traitements
▪ Supervision de la chaine batch, résolution des incidents et anomalies
▪ Réalisation des tests d’intégration technique et fonctionnelle
Environnement technique : Teradata,15.10, Informatica, AWS, Shell, VTOM
BNP Paribas – 09/2016 à 06/2018
► Poste : Data Engineer
► Projet : Calcul NSA (Nouveau schéma Comptable) // LRR (LOCAL REGULATORY REPORTING)
▪ Analyse et compréhension du besoin fonctionnel et des règles de gestion et des mécanismes de
traitements des données avec une structure des données dynamiques et variables
▪ Validation de la solution proposée auprès des experts et du MOA
▪ Développement de la solution en script Shell avec la technologie TERADATA (BTEQ, TPT, Fast
Export …)
▪ Réalisation des tests
Environnement technique : TERADATA, BTEQ, TPT, SCRIPT SHELL, AIX
La POSTE – 05/2016 à 09/2016
► Poste : Data Engineer
► Projet : La POSTE France BI - Périmètre : INFO CA // SEQUOA
▪ Développement des Workflows INFORMATICA
▪ Traitement des évolutions Business Object
▪ Elaboration des rapports // univers et traitements des incidents BO
▪ Supervision de la chaine Batch
▪ Analyse des procédures stockées et les requêtes des rapports
▪ Traitement des évolutions ESSBASE
▪ Développement des classeurs Excel VBA
Environnement technique : INFORMATICA, Business Object, PL/SQL, ESSBASE, VBA, Unix, SQL
SERVER
FNAC – 02/2014 à 04/2016
u Poste : Data Engineer
u Projet : Projet BI FNAC (centre de compétence BI Alim)
▪ Alimentation du Datawarehouse, Analyse et Traitement des données sources
▪ Développement et mise en œuvre des processus ELT à l’aide des outils Genio et Teradata
▪ Développement des scripts de chargement des données ventes, clients, référentiels magasins,
produits, etc. avec les utilitaires Teradata (TPT, FASTLOAD, MULTILOAD, BTEQ...)
▪ Développement des process de traitement des données via GENIO
▪ Correction des anomalies remontées par le service client
▪ Définition de la stratégie de test
▪ Réalisation des tests Unitaires et d’intégration
▪ Rédaction des rapports de spécifications techniques
Environnement technique : Teradata SQL assistant, BTEQ, TPT, Open Text GENIO, Unix, TOAD (interroger
les bases de données Oracle, SQL Server).
Formation initiale
Ingénieur d’état en informatique décisionnelle
Classe préparatoire mathématique / physique aux grandes écoles d'ingénieur, Lycée IBN TAIMIYA.
Baccalauréat Option sciences Mathématiques A.
Langues
Français (bilingue)
Anglais (Fluent)
Localisation
Surennes, France
Principales compétences
Analyse le besoin fonctionnel et proposer une solution technique adéquat.
Implémentation de la solution technique
Analyse et traitements des incidents
Conception des Datamarts
Développer des mécanismes et des processus de traitements des données
Développement des traitements ETL
Développement des scripts Shell
Élaboration des rapports
Compétences techniques
Outils BI ETL : INFORMATICA, ODI, GENIO, HIVE, IMPALA, HADOOP
Outils BI reporting : OBIEE, Tableau, Qlik view
Base de données : TERADATA (BTEQ TPT FASTLOAD, MULTILOAD), TERADATA Vantage SQL Server, Oracle, MYSQL, Access
Systèmes : Windows / Linux/AIX
Langages : Script Shell, PL SQL, SQL, JAVA, JAVA JEE