Dans le cadre d'une mission en tant que Senior Data Engineer GCP le but est de préparer les données qui viennent
de plusieurs sources (externe et interne) et assurer la sécurité en limitant l’accès des utilisateurs.
▪ Collecte et préparation des données (filtrage, transformation, aggregation, etc) avec BigQuery
▪ Optimisation des performances des scripts et minimisation des coût (Partitioning, clustering, etc)
▪ Organisation des workshops avec l’équipe de Data visualisation pour décider le meilleur modèle de
données à concevoir afin d’obtenir un temps de réponse optimale des tableaux de bords (temps de
refresh des graphs en utilisant les filtres)
▪ Création du modèle de données (Fact tables, dimensions, authorized views, etc)
▪ Développer et maintenir les règles de sécurité : Limiter l’accès des utilisateurs à leur périmètre de
données
▪ Automatiser la mise à jour des données avec les services managés
▪ Détecter les anomalies dans les données
▪ Déploiement des services avec Terraform.
Au sein d’une équipe pluridisciplinaire de la Digital Factory, je participe à la mise en place des solutions
ETL, via des extractions TALEND depuis plusieurs sources (Objets : Salesforce, documents : API, Fichiers plats :
Volume SFTP), pour les transformer et les intégrer dans des cibles différentes en batch
Poste : Consultant senior big data / TALEND BIG DATA
▪ Interfaçage entre applications via Webservices (Talend ESB, REST)
▪ Développement de job Talend qui font appel à des APIs avec des requêtes Http (appels Rest, GET et Put
pour les éventuelles envois)
▪ Développement des routines java pour les traitements spécifiques
▪ Conception et développement des interfaces Talend d’intégration des flux (CSV, positionnel, XML) et des
interfaces de synchronisation inter-bases et reprise de données
▪ Alimentation du Data Warehouse pour archivage et historisation
▪ Participation à l’élaboration du dossier d’architecture de la solution à mettre en place
▪ Gestion de logs évènementielle (envoie de Mail et alertes en cas d'erreur ou anomalie)
▪ Conception/Développement des Jobs Talend Big Data
▪ Optimisation des traitements existants.
▪ Maintenance évolutive et suivi de production.
▪ Développement des routines en Java
▪ Exposition des données via API rest
▪ Développement de traitements d'ingestion, de normalisation et de consommation de données structurées
et non structurées
Page 2/5
▪ Normalisation des développements Talend Big Data
▪ Contrôle des flux de chargements journaliers
▪ Mise en place de bonnes pratiques de développements
▪ Réalisation des tests unitaires, de non-régression, d’intégration et de performance
▪ Déploiement continue des applications (CI/CD)
▪ Chiffrage de la charge, établissement et envoie des devis
Contexte : Dans le cadre d’un projet de mise en place d’un Data Lake et la restitution du site ********.
▪ Analyse des spécifications fonctionnelles détaillées SFD
▪ Participation à l’élaboration du dossier d’architecture de la solution à mettre en place
▪ Optimisation des développements existants (Mise en place des bonnes pratiques de développement
Talend)
▪ Création des Jobs de migration de données (phase d’initialisation) et des jobs de synchronisation de
données
▪ Développement de routines Java pour implémentation des règles métiers spécifiques (invocation de Web
Service, formatage de données, sécurisation des mots de passe…)
▪ Formation des nouveaux consultants
▪ Rédaction des supports de formation Talend
▪ Développement de nouvelles interfaces
▪ Analyse d’anomalie & corrections
▪ Mise en place de tableaux de bord Google Data Studio, Tableau et Adobe Analytic
▪ Rédiger des documents de normes et bonnes pratiques
▪ Participer à la démarche exploratoire des fonctionnalités GCP, réaliser des POC
▪ Chiffrage de la charge, établissement et envoie des devis
Contexte : Dans le cadre de mise en place de nouveaux projets et intervention sur l’existant en tant que Tech Lead
Talend.
▪ Référent Talend sur plusieurs projets Talend
Page 3/5
▪ Conception /développement des jobs Talend
▪ Modélisation de l'entrepôt de donnée “Data Warehouse"
▪ Conception, Développement et Alimentation d’un entrepôt de donnée avec TALEND
▪ Préparation et suivi de mise en Production
▪ Etude, conception et développement d’univers/rappoorts Business Objects
▪ Maintenance et surveillance des interfaces TALEND
▪ Expertises sur les composants TALEND
▪ Pilotage et management de l’activité de plusieurs ETP
▪ Suivi du plan de capacité de l’équipe et affectation des tâches
▪ Rédaction des conceptions explicatives détaillées des contrats d’interface
▪ Chargement, intégration, documentation et préparation des livraisons
▪ Chiffrage de la charge, établissement et envoie des devis
Contexte : Dans le cadre d'un POC (Proof Of Concept) Big data dans le domaine de data finance, en tant que
consultant expert Big Data.
▪ Conception et rédaction d’un document d’architecture cible
▪ Développement des Job Talend Big Data
▪ Développement des flux d’alimentation avec Data Integration et Big Data intégration de TALEND
▪ Mise en place de data quality (nettoyage des données)
▪ Développement des jobs Spark Batch d’ingestion dans HDFS, Hive, Hbase
▪ Analyse et transformation des données selon les besoins
▪ Ingestion et transformation de donnée avec Talend Big Data
Contexte : Dans le cadre d’un projet Big Data portant sur l’ingestion des factures quotidiennement reçus par
l’Assurance Maladie et la recherche des doubles paiements potentiellement frauduleux
Mission :
▪ Analyse des spécifications fonctionnels détaillées SFD
▪ Rédaction des spécifications techniques détaillées STD (dont dictionnaire de données, règle de
transformation.)
▪ Extraction des données à partir de plusieurs bases hétérogènes via Talend
Page 4/5
▪ Audit de la qualité des données, mise ne place de la règle de contrôle, de perspectives, et de reporting
interactifs permettant l’affichage des incohérences (doublons, valeurs erronées, etc.) viaTalend
Data-Quality
▪ Développement des job Talend pour l'intégration des données
▪ Développement de routines Java pour implémentation des règles métiers spécifiques (invocation de Web
Service, formatage de données, sécurisation des mots de passe,)
▪ Ordonnancement des jobs via Talend Administration Center TAC
▪ Mise en plac d’un DataWarehouse pour la création de nouvelles offres répondant mieux aux besoins des
client
▪ Test d’intégration et support pour la recette
▪ Rédaction des documents d’installation
Contexte : Dans le cadre d’un projet pour but de mettre en place un DWH, en tant que consultant au sein de
l'équipe data : Conception et développement des flux Talend.
▪ Modélisation de l'entrepôt de données “Data Warehouse"
▪ Conception, Développement et Alimentation d’un entrepôt de données avec Talend
▪ Amélioration et optimisation des interfaces TALEND existantes
▪ Développement des flux TALEND (ETL)
▪ Intégration des données avec TALEND (ESB)
▪ Documentation des Job Talend : Dossier d’exploitation
▪ Coordination des différentes équipes impliquées dans le projet
▪ Suivi de production