Projet CI/CD:
Développement de la DevOps toolchain Tekton.
Mise en place des solutions GitOps pour le déploiement des Microservices avec Kubernetes (IKS).
Déploiement automatisé des cluster k8s via Terraform / Pulumi.
Formation des Développeurs sur les outils d’intégration continue (GitLab CI / Tekton )
Projet Cloud:
Études des solutions multicloud
Animation des ateliers de cloud Maturity Assessment
On-boarding des équipes métiers sur Docker Kubernetes et la Toolchain.
Création d’un training path pour aider les clients à migrer sur la plateforme cible.
Rédaction d’un Framework interne pour produire des applications cloud-native
Suivi des projets applicatifs en cours de migration vers le cloud.
Développement de la DevOps toolchain au sein de Thales Digital Factory :
Plateforme Cloud:
Étude de la stratégie Microservice de la TDF.
Mise en place des solutions GitOps pour le déploiement des Microservices avec Kubernetes (AKS)
Déploiement automatisé des Node pools (Azure Kubernetes Services)
Études des solutions de scalabilité agnostiques au Cloud
Études de différentes solution d’Ingress Controller : Nginx, Traefik
Études des solutions KAFKA managé sous Azure vs Kafka confluent operator sous Kubernetes
Étude d’une approche multicloud pour garantir la haute disponiblité.
Projet CI/CD:
Développement de la toolchain avec des outils certifiés CFCN Cloud native Computing Foundation
Développement des worflows d’intégration continue et de déploiement continue avec Gitlab et kubernetes
Animation des démos de présentation des solutions auprès des autres squad
Automatisation de deploiement des Chartes Helm de l’ensemble des micoservices
Microservice :
Animation des ateliers de réflexions sur le standard Microservice à adopter au sein de la TDF
Monitoring:
Étude des différentes solutions de monitoring, prometheus / Instana et ELK
Sécurité :
Hardening des différentes couches CI/CD et AKS
Développement et commercialisation de l’offre de service cloud O&I (Operation & infrastructure):
Service management
Api /CLI
Gestion des users et des comptes
Market place
Support
Database
Organisation des task forces
Sécurisation des accès AWS Console et AWS CLI avec l’AD :
Étude de la stratégie Aws Multi-Account avec l’intégration de l’AD On-Premise.
Mise en place des Assumes roles
Développement de la solution de federation ADFS to AWS avec le protocole SAML 2.0 pour les accès console et CLI avec la prise en compte du système MFA (Azure MFA Server)
Rapatriement des utilisateurs IAM vers les compte AD avec gestion des assume rôles
Création des procédures de gestion des Assumes Role et des groupes AD
Projet CDN :
Accélération du ******** et les applications Mobile nouvelle génération Gucci en CHINE :
Pilotage du projet entre la régions APAC autour de la règlementation Chinoise : Demande de la licence ICP....
Conseil sur le choix technologique en fonction du besoin des Maisons : Gucci et Saint Laurent, Boucheron.
Gestion des points bloquants concernant l’obtention de l’ICP.
Challenge des opérateurs CDN AKAMAI, CLoudFlare ansi que les operateur locaux ChinaCache…
Réalisation du projet Warehouse Device en Chine : consultation et inventaire via la Mobile app.
Mise en CDN du projet Salesforce.
Projet SAP HANA On AWS :
Études des coûts de la plateforme sur plusieurs Cloud provider ( GCP, AWS, Azure, On-premise).
Pilotage de migration et gestion des plannings
Groupe BNP Paribas est la plus grande banque française, la première banque de la zone euro en 2016 et le 5e groupe bancaire international, présent dans 73 pays
Durant cette mission, dans un contexte riche en données hétérogènes, sensible et de très haute criticité, le projet 360 Risk OP, vise à offrir aux agences B2B du groupe une vision 360 sur toutes les procédures et les incidents à fort enjeux et risques financier. Mon intervention ce découpe en trois lots :
Projet Kafka dans un contexte DDD:
- Implémentation de la solution Kafka pour l’usage de transfert de données vers le DATAHUB
- Réflexion, étude et réalisation du model pour la communication inter-produits via Kafka
- Formation et évangélisation du Event-Driven Architecture
- Initiation du projet Kafka : étude et formulation du besoin.
- Prise en compte des use case et définition du cadre d’usage de l’outil
- Récolte des besoins métier pour définir la stratégie d’utilisation du message broker
- Participation à la création de l’offre, commande des machines et des licences confluent
- Design de la solution, sizing et design des topics kafka.
- Gestion de la sécurité des échanges KAFKA consommateur / producteur.
- Mise en place des pipelines de données avec un niveau de sécurité avancée PGP over SSL
- Participation au chantier d’harmonisation des formats de messages inter et intra-aggregate
- Création et standardisation d’un Framework Producer/Consumer dédié en Java destiné aux développeurs.
- Création des tools de prototypage Data science en Python avec scikit-learn et numpy
- Etude du modèle de données sous Jupyter
Projet HDP :
- Accompagnement de la solution HDP en production avec les équipes infrastructure.
- Conseil sur le choix technologique en fonction du besoin client.
- Gestion des points bloquant concernant le tuning et le paramétrage des outils suivants :
o Oozie
o Hdfs
o Spark
o Hive
- Revu des livrables java et déploiement sous spark avec oozie
- Auto-complétion des dataset en fonction des données de prédiction
- Etude des solutions alternative de capture des évènements avec les contraintes qu’implique les base de données transactionnelle et le modèle CRUD.
Projet ElasticSearch :
- Animation des ateliers de réflexion avec les architectes et les équipes transverses.
- Etude des différents patterns discutés : Solr, Elasticsearch.
- Couplage Logstach pour exploiter les donnée en sortie de Kafka, pour les données chaud pour les usages de search et dashboarding.
Groupe leader dans le transport de courrier, colis et qui a su diversifier ces offres en prenant un virage multiservice notamment avec la banque postale et la poste Mobile.
Dans un environnement d’abondance de données (Big Data), le projet datalake groupe a émergé pour répondre aux besoins d’exploration et d’analyse rapide des données (technologie spark) avec la sécurité nécessaire et les contraintes en matière de gouvernance et privacy.
Plusieurs chantiers sont conduits pour mener à bien le projet datalake à usage groupe.
Mon intervention été centrée sur la migration des ressources Ovh vers Amazon AWS pour la platforme intégration et pré-prod/Prod avec la conception la solution de supervision du Datalake :
Migration OVH vers AWS :
- Conception de la plateforme aws avec le découpage réseau et VPC
- Ecriture et centralisation du script de la plateforme avec Terraform sous Git pour la gestion des ressources : Route 53, VPC, ELB, IAM, RDS, ECS, api gateway, S3, Kinesis…
- Ecriture des templates de playbook Ansible pour les différents usages applicatifs.
- Migration et tranformation des données MySQL 5.6.35 vers RDS
- Architecture et mise en place des workflow : intégration continue et déploiement continue, pour la production des livrable et les microservices sous ECS.
- Migration de la stack ELK vers Amazon Elasticsearch Service
Projet Cloudera scale-up :
- Mise en place de solution de déploiement de nœud clouera pour assurer la scalabilité horizontale.
- Etude et migration de Cloudera 5.9 vers la version 5.13
- Documentation de l’installation Cloudera pour les équipes de production
Projet Supervision Datalake :
- Etude et mise en place de la solution de supervision Datalake groupe avec Shinken Grafana et InfluxDB.
- Développement des pluies de métriques en exploitant les données Web HDFS JMX, Python.
- Création des scenario de test fonctionnelles des notebook executé sur Zeppelin et Dataiku
- Suivie des traitement d’ingestion et alerting sur les batch Airflow.
- Développement des scripts de supervision d’ingestion en Python (Pyspark) et Scala.
Projet Pilotage de la Migration vers le datacenter Groupe :
- Etudes des contraintes de sécurité dans le Cloud Privé du groupe
- Animation des ateliers de réflexion sur le contexte enjeu et scénario de migration de la data
- Mise en place du procédés Build horizontal afin de réduire les interruptions de service généré par les mises en production.
- Mise en place des procédures pour la migration des données KAFKA, HDFS, Couchbase et ES.
- Animation des ateliers best practice de production en environnement DATALAKE .
- Sécurisation et migration des données HDFS,Kafka, Elasticsearch entre deux data center.
Projet Big Data pour la détection de fraude :
- Etude des procédures d’industrialisation et de mise en œuvre du projet Datalake dans le contexte de la Banque Postale.
- Etudes des normes bancaires française et compliance européenne afin d’établir la ca...