Missions d'expertise Data :
- Audit et troubleshooting Redshift
- Tech Lead Big Data (Spark, Airflow)
- Expertise AWS Data
Head of Data de l'équipe responsable des Data des véhicules connectés chezFree2Move. En ayant tout à construire, nous avons maintenant:
- Stack: Scala, Spark, Kinesis pour gérer 300K véhicules connectés, 40 Go de data streamées, 400M d'events par jour
- Infrast ructure: déployée dans AWS par Terraform, monitorée via Cloudwatch, Grafana
- Construction de l'équipe: 7 développeurs (3 Data Engineers, 3 DataOps, 1Data Analyst)
Lead de la team BI et Data Engineer pour les données Patient chez Doctolib
- Lead de 3 personnes
- Data Engineer
- Architecte AWS Data
- Expert Redshift Transverse
Senior Data Engineer sur la plateforme Data de l'entreprise :
- Architecte Data AWS
- Expert Redshift
- Développeur Python/Airflow
- DataOps (IAM, Terraform, monitoring via Lambda/Cloudwatch, ...)
Mon rôle est d'encadrer une équipe de 3 Data Engineer pour assurer la haute disponibilité des données du Data Lake d'Ogury :
- maintenance de l'architecture et des flux actuels
- ingestion des nouvelles données
- mise en place d'une architecture répondant aux besoins actuels et futurs (volume, Data Science, facilité d'utilisation)
- gestion d'un budget Cloud Data de 300 000 €
- mise en place d'un dispositif GDPR-ready à la Data
Développeur Data Warehouse chez Ogury, mon but est d'assurer la haute disponibilité des données de notre DWH pour le machine learning et les KPI
d'activité.
- maintenance et optimisation du cluster Redshift (base de données distribuées d'AWS)
- réalisation de flux de données via Data Pipeline (ETL d'AWS)
- études métiers des données avec restitution sur Tableau ou Excel
Team leader sur un projet interne de collecte de données web textuelles envue d'une analyse pour créer un référentiel de classement des documents
- choix de l'architecture (Hbase, Hadoop, Spark)
- développements (Hadoop, Python, Pyspark)
- accompagnement des consultants du projet
Développeur Big data au sein d'une équipe chargée de croiser les données contrat et sinistre de toutes les filiales d'un grand assureur
- alimentation et maintenance des données Hadoop
- support utilisateur sur les solutions choisies (R, Python, H2O, Hadoop)
- diverses formations d'initiation sur Hadoop, Data Science avec H2O
- installation et benchmark de solutions (Impala, packages R et Python, Spark, Hadoop)
traduction en Français du moteur d'analyse de sentiments de l'outil de vision 360° client
- veille technologique
- réponse à appel d'offre
- présentations client
- ateliers internes (Hadoop, formation de data scientists, cas métiers)