Projet Projets OFAC/ KYC (LCL)
Mission(s) et
réalisations
Analyse du besoin, identification des sources de données nécessaires pour
l’analyse de la qualité, la validité et la fraicheur des données de l’ensemble des
personnes (clients plus parties liées)
Développement des traitements d’alimentation du Data Lake à partir des CRIs des
systèmes opérationnels
Conception, modélisation et alimentation du datamart KYC (TERADATA)
Industrialisation de scripts sous Python & pyspark sur la plate forme BigData
Bascule des traitements en production avec une phase de contrôle des résultats
avant la diffusion des reporting à CASA
Tests de bout en bout avec le portail de remédiation sur les données de Klif
Analyse et correction des anomalies à toutes les étapes du projet KYC
Optimisation et audit des traitements (Index, explain plan analyze, Skewing &
Statistics, spool …)
Technologies clés BigData : Python 2.7 & pyspark2.1.0, Jupyter Notebook, (HDFS, Hive, Oozie), CFT. SGBD :
(Teradata v16.20), BTEQ, TPT, Shell, Git, HPQuality Center
Projet Cellule gouvernance des données (BNP Paribas)
Mission(s) et réalisations Réalisation des développements d'outils de métrologie TERADATA & BIG DATA
Administration Teradata Viewpoint Alerts (session, space, …)
Optimisation et audit des traitements (Index, explain plan analyze, Skewing & Statistics, spool …)
Développement d'outils d'aide à la gestion de la sécurité (revue des accès, droits et mots de passe)
Capacité planning (suivi des usages et tendances prévisionnelles) et métrologie
Accompagnement de la migration Teradata v14.10 vers Teradata v16.10
Installation de procédures pour la gestion des collectes statistiques.
Formation et support utilisateurs, sensibilisation aux normes & enjeux des systèmes décisionnels
Projet OKOUME /LAQ /STM
Mission(s) et réalisations Véhiculer les bonnes pratiques de développement (Unix, Teradata v15.10)
Effectuer des revues et validation de conceptions techniques et de codes réalisés par les développeurs
Réalisation des tests de performance et optimisation des procédures stockées , des requêtes et scripts ksh.
Audit : Volumétrie, Skew, Compression, statistiques
Réalisation du codage applicatif et des tests unitaires en mode Agile
Intervention en mode pompier sur les projets LAQ (E02, OPENDATA et SYNCHONEPS)
Projet Hub DATA France (~500 To), 25 sources, 161 flux Entrants et 7 flux sortants : Intégration de la donnée par anticipation dans le cluster BIG DATA (HDFS et Hive) pour permettre l'exploration en mode Datalab et alimentation des cas d'usages industrialisés
Mission(s) et réalisations Intégration des données dans le Hub Big Data France :
Paramétrer les modules du Framework (perl, Shell, Json)
Développer de nouveau module (Java, Python, Shell)
Extraire des données des systèmes de production(TERADATA)
Réalisation et tests de configurations CFT
Réalisation de la qualification technique de bout en bout (de la réception des fichiers à l'intégration dans HIVE) :
Rédaction des scénarios de tests et construction des jeux de données
Réalisation des tests
Automatisation des tests de non régression technique
Projet System de Traitement En Masse (STM) V2 (SIAD TERADATA ~40 To)
Mission(s) et réalisations Support technique et coaching de l'équipe de réalisation (une équipe de 5 personnes)
Véhiculer les bonnes pratiques de développement (Unix, Teradata v14.10)
Effectuer des revues et validation de conceptions techniques et de codes réalisés par les développeurs
Réalisation des tests de performance et optimisation des procédures stockées , des requêtes et scripts ksh.
Participation aux travaux de chiffrages des items de la version STM v2.0
Participation et animation des ateliers de cadrage, de compréhension du besoin et de restitution de solution
Réalisation du codage applicatif et des tests unitaires
Report de l'état d'avancement, les alertes auprès du chef de projet
Suivi des charges et de la planification projet
Projet Initialisation du projet System de Traitement En Masse (STM) V1.0
Mission(s) et réalisations Mise en place de prototype de comparaison des données des SI opérationnelles pour pouvoir choisir les sources des données pour initialiser STM (réalisation de différentes études permettant dans un premier temps l'audit et la migration des bases orales et dans un second temps la décision de faisabilité)
Extraction des données contractuelles et les courbe de charge de différentes SI opérationnelles pour l’initialisation de l'entrepôt de données
Mise en place d’indicateurs de qualité sur les extractions CDC
Participation au développement des chantiers : effacements de consommation(NEBEF), surveillances des données STM et adaptation du coeur algorithmique du Bilan Globale de Consommation(BGC)
Projet Reconstitution des flux
Mission(s) et réalisations Analyse de la cohérence des données et mise en place de solutions de contournement
Réalisation de requête d’extraction pour les métiers ERDF
Correction et optimisation des requêtes existantes
Réalisation de chantier de correction de données
Réalisation de stratégie de recette et aide à la préparation de la recette
Support à la production du BGC réglementaire hebdomadaire pour RTE
Projet Mise en place et évolution du gisement de CRM-Analytique de France Telecom (SIAD TERADATA ~80 To)
Mission(s) et réalisations
Technologies clés
Analyse des spécifications fonctionnelles et rédaction des spécifications techniques détaillées
Participation aux travaux de développement de la version initiale du Framework
Réalisation du codage applicatif et les tests unitaires
Analyse et correction des anomalies en production
Industrialisation des différents items développés.
Identification et quantification du rework lié aux changements de solutions techniques et fonctionnelles
Automatisation des tests de non régression technique
Automatisation et sécurisation du delivery
Projet Etudes de plan de transport et de circulation
Mission(s) et réalisations
Technologies clés Recueil et analyse des données techniques, économiques et environnementales
Formalisation, calage, validation du modèle mathématique
Prévision de la demande future des transports en commun
Simulation numérique et traitement des résultats
UNIX, C/C++, SGBD (MySQL), Logiciels statistiques (R v2.14.0), Python v2.7