CONTEXTE MISSION :
Architecture cloud, projets de migration de refonte applicative, plate-forme data, innovation
RÉALISATIONS :
Refonte ETL C3ai Mastermind vers AWS Glue – architecture, poc sur localstack, terraform
CallBot Zaion - architecture, ogigramme parcours utilisateur, interface Api Hour et Octopuss
vers SAP
RPA Blueprism – architecte infra, architecte mutualisation licences et plate-formes, optimisation
des coûts, architecture migration sur AWS
Architecte migration middleware ApiHour / xData ( référentiel clients vision 360 ) de Azure VM + Rancher
vers la Landing Zone AWS avec industrialisation et migration de donnes full load et CDC ( 8 To )
Architecte Landing Zone, contributeur principal modules terraform, code reviewer principal
Architecte principal squad Data , équipe Team Infrastructure a la DGP
Architecte intégration Teleport avec IDP Okta pour RBAC ( accès aux ressources bases sur rôles
d’exécution)
Architecte RPU ( référentiel personne unique ) avec une étape de DataQuality garantissant les
Golden Records
Architecte étude TiDb – base de donnes faible latence et nouvelle génération pour migrer le
datawarehouse
Réfèrent transverse sur les architecture, best practices, outillage et finops maîtrise des coûts
MÉTHODOLOGIE :
Agile (SCRUM) / Cycle V
Rush novembre / décembre et migration middleware sur aws pour Albelli
RÉALISATIONS :
Optimisations infrastructure et monitoring pour la période de RUSH ( GCP Kubernetes, MongoDB,
Redis avec Sidekiq), pubsub, applicatif golang, finetunning définition des services, réécriture
applicative, purge et index
Migration middleware post-rush dans une nouvelle architecture complètement serverless lambda et sqs
Sur aws – cloud Albelli, pojet Jarvis
MÉTHODOLOGIE :
Agile (SCRUM) / Cycle V
CONTEXTE MISSION :
Projet MyEH – portail pour les assurés de nouvelle génération
RÉALISATIONS :
Architecture de type AutoScaling pour le service ECS (Dockers ) basé sur EC2
pour la région Frankfurt
développer la partie Terraform pour automatiser la livraison
Modules génériques pour Nat, VPC, S3
Déploiement de l’environnement d’intégration pour Euler Hermes avec CloudDevOps
Déploiement de l’infrastructure spécifique MyEH
Élaborer le processus CI/CD (déploiement continu avec Terraform ) pour MyEH
Élaborer et développer le format du log applicatif, les custom metrics et unifier les logs (Kinesis FH, S3)
Utiliser le SQS pour la synchronisation process master et l'envoi des mail ( critical, warning,
etc. )
Organisation du code dans GitLab dans des modules réutilisables
Python et nodejs pour AWS Lambda pour la partie AutoScaling et AutoHealing
Réfèrent sur les Serverless et Ansible ainsi que linux bash, perl et python.
MÉTHODOLOGIE :
Agile (SCRUM) / Cycle V
CONTEXTE MISSION :
Projet NERO - prédiction des prix hôtels en fonction des Events, Weather, Historique Irma et concurrence
RÉALISATIONS :
Définir l'architecture du projet Nero (AWS lambda , AWS step functions)
Développer la partie extraction de données ( datalake et/ou sources externes API REST vers
le Cloud AWS du pilote Nero)
développer la partie CloudFormation pour automatiser la livraison
Ops, format json, préparation environnements
4 mille lignes de script pour: ( rôles IAM, Lambda, StepFunction Dialy, CloudWatch,
DynamoDB , API exchange avec les partenaires, CodeCommit et Code Pipeline AWS)
Élaborer le processus CI/CD (déploiement continu avec Terraform )
Élaborer et développer le format du log applicatif, les custom metrics et unifier les logs
Utiliser le SQS pour la synchronisation process master et l'envoi des mail ( critical, warning,
etc. )
Utiliser yaml et json enrichi avec des fonctions CloudFormation pour la partie variabilisation .
Développer en python, java (log4j + logback) et scala (pour la partie data processing, scala en
tant que librairie java sur lambda ).
Réfèrent sur les Serverless et Ansible ainsi que linux bash, perl et python.
Référent normes Python pour le département DataScience
MÉTHODOLOGIE :
Agile (SCRUM) / Cycle V
CONTEXTE MISSION :
Urbanisation et expertise transverses
RÉALISATIONS :
En charge du support et développement de la publication ( Spot vers Front et Ref ) –
En charge du support de la plate-forme d'échange ETL - ETL Informatica + SQL
En charge du projet VPAnalytics (solution analytics interne sur AWS ) - javascript ( nodejs) ,
Amazon Kinesis, Amazon S3, Amazon SQS, ré descente données dans GreenPlum (
DataWare BI ), entièrement hébergé sur AWS
En charge du développement de la solution VPCrush ( multi-arm Bandit en Scala basé sur
l'affinité du membre
Nodejs AWS ( api rest pour absorber le trafic ), Load Balancer, CloudFormation (
autoscaling ), Amazon Kinesis, Spark 1.6 sur EMR ( deux instances r2 ),
Partie descendante vers la Ferme de services Web VP
En charge de l’interface GreenPlum - Google Cloud pour la segmentation des membres sur
Google BigQuery (python ) - Google DataStore et BigQuery
En charge de l'administration du cluster ElasticSearch marketing y compris le plugin de Stock
en Temps Réel (plugin Google Chrome)
En charge de l'administration du premier cluster ElasticSearch chez Vente-privée
En charge du déploiement et l'administration de la plate-forme RabbitMQ (multi-datacenter )
en multiplate-forme : pré-production et production
En charge du déploiement et configuration du cluster Elastic utilisé pour le moteur de
recherche sur le site VP (support niveau 1 ) en multiplate-forme pré-production et production
En charge du déploiement et configuration du cluster Couchbase
MÉTHODOLOGIE :
Agile (SCRUM) /Devops
CONTEXTE MISSION :
En charge de l’architecture et du développement des moteurs génériques de l’outil de conversion de
données multi-constructeur et multi-versions DCT utilisé pour le projet de swap radio pour Orange et
Bouygues Telecom ( 18000 sites swappés vers E///, multi-techno et multi-constructeur).
RÉALISATIONS :
Développement de l’outil de conversion de données, Outil de configuration Ericsson, Team
Manager, Application Ericsson
MÉTHODOLOGIE :
Agile , Cycle V
CONTEXTE MISSION 1:
BCM (Bouygues Configuration Management) est un outil multi-constructeur, multi-version, multi-techno
(2G, 3G, LTE) utilisé par Bouygues Telecom pour faire la configuration des équipements RADIO utilisé
par 400 ingénieurs environ.
En tant que S&D Manager J’ai participé à l’architecture (spécification, maquette, test) et au
développement de la solution dans un environnement Windows Server, SQL Server et .NET(C#) pour
la partie client.
RÉALISATIONS :
Améliorations des performances pour l’import des données (XML SAX , C# langage de
développement, Javascript langage de développement web, Base de données SQL pour le
modèle XML et le chargeur des données en masse)
Unifications des traitements base de données (afin de créer des traitements génériques, SQL
serveur, procédures, SQL dynamique)
Méthode unique pour traitement du calcul (basé sur opérations – traitement SQL)
Amélioration de l’ergonomie (interface graphique – C#, Javascript, classe de basse,
customisée)
Amélioration des performances pour le traitement données ( multi-threading, point de
synchronisation)
Mise en place d’une méthode de travail afin de réduire le temps de test (maquette, expérience
partagée)
CONTEXTE MISSION 2:
RAMSES (Radio pArameters Management Software for Engineering Services – Nortel 2G Equipment)
est un outil mono-constructeur, multi-version, mono-techno (2G uniquement) utilisé par Bouygues
Telecom pour faire la configuration des équipements RADIO 2G Nortel (90% du réseau Bouygues
Telecom 2G avant swap) utilisé par 75 ingénieurs environ.
En tant que S&D Manager J’ai participé au management de projet (équipe de quatre développeurs) à
l’architecture (spécification, maquette, test) et au développement de la solution dans un environnement
Windows Server, SQL Server et Delphi Client Server (du v3.0 au 7.0) pour la partie client (lourd).
RÉALISATIONS :
Management de projet (vision détaillé et unifiée)
Migration applicative (SQL server, Delphi et W...