Accompagnement et conseil de l’équipe Data Factory –
Architecture, modélisation et ingestion de données.
❖ COPROD
• Optimiser le processus de la production et la qualité
de service
Introduction aux notions de la BI Agile.
Introduction aux notions d’ingestion massive.
Mise en place d’une stratégie d’ingestion de
données en couche.
Implémentation des jobs assurant la synchronisation
de l’entrepôt de données.
Implémentation des vues matérialisées pour assurer
l’exposition des données à la visualisation.
❖ FIABILISATION
• Optimiser le processus de fiabilisation de la carrière
Organisation du Backlog produit à fin de réduire les
éventuelles dépendances.
Mise en place de la Matrice Bus de Données.
Modélisation des différents objet à charger.
Implémentation des jobs Talend assurant le
chargement des différents objets à travers les
différentes couches.
❖ TRANSVERSE
• Mise en place d’un cycle de développement Talend.
• Migration depuis SVN vers GitLab.
• Travaux d’optimisation sur les chaines d’ingestion Big
Data.
• Formation des équipes: Agilité, BI, Data Vault, Talend
Dimension du projet
8 personnes
Termes Métiers
Domaine, Produit de données,
Reservoire, Carrière,
Fiabilisation, RGCU, etc...
Socle technique
TAC, Cloudera V6, Hadoop,
Oracle, PostgreSQL, SVN, Git,
ELT/ETL, Hive, Spark, Parquet,
EDWH, Indexima, PowerBI ,
etc…
• Définition de la roadmaps et accompagnement sur
la mise en œuvre d’une stratégie data agile.
• Etude comparative des différents choix technologiques
tout en prenant en compte les cas business, le type de
données sources, le budget, les compétences.
• Proposition et validations des unités d’œuvres et work
package de mise œuvre dans le cadre de la phase
d’ingestion de données.
• Mise en place d’un scénario d’intégration de données.
Dimension du projet
3 mois – 4 personnes
Termes Métiers
Domaine Facturation, Domaine
Opération, Process, etc...
Socle technique
Talend Cloud, Snowflake, Git,
Remote Engine, ELT/ETL, Azure,
etc...
L'équipe RESEARCH a besoin d’acquérir le maximum de données
statistiques immobilières dans les pays ou BNPRE commercialise
des produits, le croisement des données permet de créer de
l’intelligence et de faire des analyses de marché approfondies.
❖ Partie Projet IRD:
➢ Mise en place d'un cycle de vie de développement
• Implémentation d'un SDLC facilitant le travail
collaboratif et les revues de code croisées.
• Assurer la formation de l'équipe sur le Workflow de
développement proposé.
• Mise en place d'un tableau KANBAN pour assurer une
gestion visuelle plus détaillée.
➢ Mise en place d'un système d'automatisation du processus
d'alimentation à travers un Framework de métadonnées
• Modélisation d'un entrepôt de données de deux
couches.
• Implémentation des jobs Talend assurant le suivi des
exécutions.
• Implémentation des jobs d’intégration de données
respectant les règles de gestion.
• Implémentation d'une mécanique de gestion de rejets et
de notification.
• Accompagner les membres de l’équipe sur la mise en
place des connecteurs d'intégration via des service web
REST.
➢ Mise à disposition et modélisation des données pour le
Reporting
• Animation des réunions de grooming pour assurer la
bonne compréhension du besoin.
• Implémentation du Data Module.
• Participation au développement des rapports
analytiques.
Dimension du projet
12 mois – 6 personnes
Termes Métiers
Location, Offre, Investissement,
etc...
Termes techniques
tExtractXmlField, tRESTClient, Git,
etc...
Outils techniques
Talend Open Studio, GitEye,
GitLab, Putty, WinSCP, SQL
Server, etc...
Mise en place de l'entrepôt de données Fnac-Darty
❖ Partie Projet - EAGLE
• Rédaction et préparation de la
stratégie d'alimentation.
• Conception et développement de Template de
développement des jobs Talend en mode ELT.
• Accompagner les juniors sur les difficultés rencontrés.
• Mise en place des algorithmes de Hash pour la
création des SK pour paralléliser les traitements sur les
différentes couches d'intégration.
Dimension du projet
5 mois – 7 personnes
Termes Métiers
Ref magasin, Ref produit, ligne
de vente, etc...
Termes techniques
tExtractXmlField, ELT, Raw Data
Layer, Business Data LAyer,
DWH, etc...
Outils techniques
Talend Big Data Real Time,
Talend Administration
Center, Teradata, Putty,
WinSCP.
Mise en place et maintien des synchronisations des
données avec les fournisseurs de services.
❖ Partie smart connecteur:
➢ Agrume : Implémentation d’un connecteur d’intégration des
collaborateurs | 10 Flux
• Collaboration étroite avec le responsable des opérations
pour assurer l’affinement de besoin.la répartition de
charge.
• Paramétrage du socle peopleSpheres pour assurer la
synchronisation des données avec le partenaire.
• Planification des itérations, rédaction des user stories,
estimation et négociation des délais.
• Analyse des APIs et Implémentation des flux Talend
sortants et entrants.
• Planification de la phase QA et UAT avec les parties
prenantes internes après avoir validé techniquement le
code en revue croisée.
• Mise en production, et planification des flux.
➢ eDocSign : Implémentation d’un connecteur de gestion de
signature électronique. | 6 Flux
• Préparation des jeux de données et analyse du besoin.
• Planification et préparation des itérations.
• Mise en place des comportements attendus (BDD:
Behavior Driven Development) avec le chef de projet
fonctionnel.
• Implémentations des flux Talend assurant la transition
des données.
• Validation de PV d’UAT (User Acceptance Test) interne.
Dimension du projet
19 mois – 8 personnes
Termes Métiers
Onboarding, TurnOver, Bilan
Social, Gestion des talents,
Gestion des déponses, etc...
Termes techniques
tJsonWrite, tRESTClient,
tHttpRequest, tREST, tKeyStore,
DynamicSchema , Xslt, XML,
JRXML, etc...
Outils techniques
Talend Studio 7.0.1, Talend
Cloud Management Console,
Talend Data Preparation, Git,
PgAdmin Filezilla, Putty, WinSCP.
➢ Flatchr : Implémentation d’un connecteur de recrutement | 4 Flux
• Rédaction des user stories et validation du workflow
fonctionnel.
• Paramétrage et préparation de la plateforme
peopleSpheres pour intégrer le nouveau partenaire.
• Implémentation des flux de synchronisation des données.
• Préparation des cahiers de recette.
• Déploiement et planification des flux.
➢ eDocSign : Implémentation d’un connecteur de gestion de
signature électronique. | 6 Flux
• Préparation des jeux de données et analyse du besoin.
• Planification et préparation des itérations.
• Mise en place des comportements attendus
(BDD: Behavior Driven Development) avec le chef de
projet fonctionnel.
• Implémentations des flux Talend assurant la transition
des données.
• Validation de PV d’UAT (User Acceptance Test) interne.
➢ « Caisse des Dépôts »: Implémentation d’un connecteur de
génération documentaire | 2 Flux
• Recueil du besoin suite au Kick-off.
• Validation du Template des sources de données.
• Implémentation des flux Talend assurant la génération,
des CV pdf, des différents collaborateurs.
• Validation des livrables avec le client.
• Mise en production et planification du connecteur.
➢ Badgeuse : Implémentation d’une synchronisation de données de
géolocalisation| 6 Flux
• Etude des APIs et préparation de données.
• Implémentation des jobs Talend.
• Préparation des fichiers de configuration du connecteur.
• Déploiement et planification du connecteur.
➢ e2Time : Implémentation d’une synchronisation de données de
pointage | 3 Flux
• Paramétrage du socle pour accueillir le module e2Time.
• Implémentation des Joblets génériques assurant
la synchronisation partielle des données utilisateurs.
• Implémentation des jobs Talend.
• Validation des livrables.
• Mise en production et planification des flux.
❖ Partie architecture et administration
• Réalisation d’un audit pour assurer la conformité
de l’architecture existante aux recommandations
Talend.
• Préparation et proposition d’un DAT à l’issue des
outputs de l’audit.
• Mise en place d’un SDLC pour faciliter le partage,
la standardisation et la réutilisation de code source.
• Passage à une architecture cloud hybride en mettant
en place des moteurs d’exécution distant (Remote
Engine).
• Etude et proposition d’une nouvelle architecture se
basant sur la notion CDC (Change Data Capture) pour
éviter un envoi massif de données (Incremental Load).
Mise en place et maintien des flux de gestion de
données JCDécaux France
❖ Partie Projet
• Conception et développement des routes Camel pour
assurer le suivi temps réel de l’état des panneaux
publicitaires, des réseaux et des interventions.
• Paramétrage des consommateurs Kafka pour assurer
la répartition de charge.
• Mise en place des algorithmes de Hash pour réduire
la durée de traitement des messages consommés.
• Implémentation d’un algorithme de gestion des rejets.
• Conception et développement des jobs pour la data
tiering ( Historisation des tables sous le système de
fichier de MapR ).
❖ Partie MCO
• Développement et déploiement des patchs correctifs
de PROD.
• Conception, développement des jobs de reprise de
données.
• Conception des univers BO avec IDT (Information
Design Tool).
• Implémentation des évolution sur les rapports Tableau
❖ Partie SLDC et process
• Installation des briques ES...