Architecture & Implémentation de la nouvelle Data plateforme CDP :
- Étude & Architecture d’une nouvelle plateforme data pour le groupe la poste et élaboration
d’une trajectoire de migration répondant aux besoins métiers.
- Définition et application des patterns & standards d’ingestion et de traitement de données sur
le data lake ( data factory)
- Benchmark , Architecture & Mise en place d’une offre de service analytique sur le data lake.
- Réalisation des POCs ( Analytics , Data science , Chiffrement, Cloud native , …)
- Architecture et mise en place d’un socle machine learning & IA
- Définition des patterns d’industrialisation des pipelines Machine learning
- Mise à jour du cadre de référence pour la stratégie Data.
- Mise en place de la stratégie de fédération des différentes branches sur un socle data
commun
- Architecture & Mise en place de la CI-CD ( intégration continue - déploiement continu )
- Implémentation & Industrialisation des pipelines Data & Machine learning
- Architecture & Mise en place d’une nouvelle plateforme pour les traitements big data (
Kubernetes )
- Tunning des composants de la data plateforme pour des besoins de performance
- Mise en place des règles de sécurité et chiffrement
- Support aux équipes de data engineer & data science
Stack : Kubernetes (Openshift), Dataiku, Dremio ,Helm, Docker, Cloudera CDP-DC, Cloudera
CDP-PVC, Spark on k8s, Hive on k8s , Kafka , Kafka Stream, , Kafka Connect, Scala, Python,
Hadoop , Ranger, Impala, Solr, Hbase, Hive, Nifi, CICD, Jenkins, Ansible , AWX, API Gateway,
IAM, Tableau server.
Architecture & Implémentation des solutions Big Data règlementaires
- Identification des besoins et cadrage avec les équipes métiers pour identifier les capacités à
développer
- Définition du Dossier d’architecture
- Définition & documentation dans le référentiel MEGA des modèles data pour le domaine
“compliance”
- Définition de l’architecture Data & applicative pour répondre aux exigence réglementaires
- Définition des stratégies data pour les domaines risques & finance.
- Mise en place des patterns et standards data factory pour homogénéiser les différents
pipelines data et assurer une qualité de run.
- Mise en place et déploiement des pipelines data en mode devops et gestion des releases.
- Développement d’un framework big data générique pour répondre aux exigences
d’adaptabilité avec les changements des règles métiers.
- Mise en place d’un framework de sécurité pour les data pipelines.
- Audit des processus de la data plateforme et proposition d’un plan d’amélioration
- Veille technologique pour améliorer les capacités liées à la plateforme ( Analytics, Data
virtualisation, API on Big Data, …)
Stack : Hadoop , HDFS, HBase, Hive, Kafka, Kafka Connect, Ranger, Ranger KMS, Spark,
Scala, Python, Machine Learning, Docker , CICD, Jenkins, Ansible , AWX, API Gateway, IAM,
Azure
Développement solution vision client 360°
- Cadrage du besoin avec les différents métiers
- Mise en place de l’architecture métier & data pour le regroupement des différents
référentiels.
- Lead les développement de la solution et support/accompagnement des développeurs
- Développement d’un moteur de Matching suivant une logique exacte, floue, phonétique
entre les différentes entités des référentiels clients.
- Développement des micro-services pour exposition des APIs vers les applications front-end.
Stack: Hadoop , Hive, Kafka, Kafka Connect, Spark, Scala, Python, Machine Learning, Docker ,
React, Angular, NodeJS, Jasmine, Bower, Gulp (Javascript), Typescript, MongoDB, Elasticsearch
exposé et monitoring des risques.
Maintenance d’une chaîne de traitement réglementaire Bale 2/ Bale 3 et son outil d'administration,
de mesure et de suivi du crédit utilisé par plus de 5000 utilisateurs :
- Responsable de la conception et du développement du module Large Exposure en Java
J2EE.
- Développer un script Maven pour construire et déployer l'application.
- Mise en place des tests unitaires et d'intégration
- Concepts orientés objet appliqués (héritage, composition, interface, etc.) et modèles de
conception (singleton, stratégie, etc.).
- Conception UML
- Développement d’un calculateur de risque en C++
Un outil pour gérer le progiciel de consolidation de comptabilité pour plusieurs filiales et entités.
Automatisation des contrôles de cohérence des transactions financières inter-entités et des règles
configurables pour les entités :
Stack: Java 1.6, Maven, JSF, JUnit, Oracle 11g, Websphere, Log4j, Shell Script, SQL Developer,
Linux, Windows, SVN.