Revue et Optimisation du traitement ORACLE d'export des collaborateurs n'ayant pas transmis leurs
justificatifs de transport
 Revue et Optimisation des traitements ORACLE d'export des actes administratifs et actes de mobilité
Optimisation des traitements différés de la tenue de compte
 Optimisation des traitements mensuels ORACLE de validation avant comptabilisation.
 Tuning des requêtes ORACLE des exports financiers.
 Optimisation des traitements médiation Talend de la tenue de compte.
Migration des données du SI back GEODE source vers le SI cible back SAB
 Analyse du modèle de données du SI source
 Etude de la cohérence et de la qualité des données sources et leur fiabilisation
 Spécification des règles de correspondance et de transformation des données sources sous Sybase vers
la base de données cible sous Oracle
 Conception et développement des ETL de reprise et de migration des données vers le SI cible
 Optimisation des temps de traitements des batch Talend
Alimentation au fil de l'eau de la BDD avec les données référentielles bancaires clients et produits
 Spécification de l'abonnement EAI avec le référentiel des clients et des produits
 Développement des traitements sous Oracle en réponse aux notifications de l'EAI
 Traçage des modifications notifiées par l'EAI.
 Réalisation des tests d'intégration, de recette et d'homologation avec l'EAI
Refonte du SI de la CDC, analyse, conception et développement des traitements back du SI de la banque en
ligne basé sur un progiciel backoffice de la tenue des comptes (SAB)
 Participation à l'analyse de l'existant et la conception du nouveau SI.
 Participation à la conception de l'architecture applicative urbanisée du SI.
 Conception du modèle des données objets du SI cible et son implémentation physique.
Traitement et Intégration des données de la tenue de compte (backoffice) dans le SI cible
 Spécification des règles de correspondance et de transformation des données du back (fichiers plats)
vers les tables relationnelles du SI cible
 Nettoyage et fiabilisation des données
 Conception des processus d'ETL
 Ddéveloppement des batch d'intégration des données du back avec Talend
 Réalisation des tests de qualification des batch avec le backoffice
 Mise en place des optimisations Oracle et Talend des temps de traitement des batch
 Ordonnancement des batch avec ControlM
Conception et développement d'une application pour le référentiel dans Ubix, une solution de gestion des
contreparties dans le système Back Office de la BNP CIB.
 Spécification des besoins et conception de la solution
 Développement de la solution basée sur l'API UBIX et le Framework Spring
 Mise en place des queues JMS pour la gestion des confirmations
 Mise en place des batch pour les activations/désactivations asynchrones des contreparties
 Tests techniques et fonctionnels de la solution
 Déploiement de la solution en UAT pour la validation de la solution
référent technique TALEND pour la mise en place des traitements d’alimentation du
Datawahourse et bigdata, Data architecte pour la mise en place du Datawarehouse dans le bigdata
Conception et mise en place de la solution talend DI et BD open source au sein de la BI
Mise en place des pipelines d’alimentation ETL et leur monitoring dans talend DI
Administration et tuning des traitements d’alimentation dans Talend et Teradata
Optimisation des requêtes de restitution BO dans Teradata
Maintenance et optimisation des traitements BTEQ dans Teradata
Mise en place des pipelines génériques d’alimentation Bigdata depuis les databases opérationnelles dans
talend BD, SQOOP et HIVE
Tuning des requêtes interactives pour des temps à la secondes dans LLAP HIVE
Mise en place, monitoring et administration du Dremio pour les besoins de restitutions
Mise en place des flux génériques d’alimentation bigdata dans le HDFS/HIVE/SPARK
Exploitation, administration et tuning des traitements bigdata dans le cluster HDP
Configuration et administration du cluster HDP, HA, WORKLOAD, QUEUES dans YARN
Participation à la mise en place et l’administration de Microstrategy
Suivi de PROD des traitements d’alimentation et bigdata dans VTOM
Conception et réalisation des traitements techniques de purge, refresh des stats, historisation des
données dans Teradata et Bigdata