// Contexte :
L’équipe Finance de Carrefour souhaite créer un datalake afin de centraliser et harmoniser les données issues de
plusieurs pays et systèmes sources.
// Rôle :
• Gérer le backlog et les priorités techniques de l’équipe.
• Coordination avec 8 pays pour le sourcing des données locales.
• Cadrer et former une équipe de 3 développeurs et 2 data analysts.
• Définir l’architecture cible sur GCP.
• Participation aux sujets techniques transverses de l’équipe Links.
• Implémentation et développement des différentes briques techniques.
// Réalisations :
• Développement des services d’extraction, chargement, transformation et exposition des données.
• Développer l’architecture réseaux pour se connecter aux différents systèmes locaux.
• Conception et développement de la chaîne de CICD.
• Mettre en place deux solutions de monitoring et d’alerting.
• Déploiement de la solution en PROD.
// Contexte :
Servier souhaite développer une data platforme sur GCP pour centraliser les différents flux de données et alimenter des
cas d’usage de dashboarding et ML.
// Rôle :
• Cadrer et former une équipe de 6 développeurs et 5 data analysts.
• Design et conception de l’architecture de la dataplateforme sur GCP.
• Coordinations avec les équipes de sécurité et de qualité pour s’assurer que la solution est compliant avec les normes
internes de l’entreprise.
• Coordination avec les solutions owners de chaque source de données pour définir les contraintes sur les données.
• Implémentation et développement des services de la data plateforme.
// Réalisations :
• Développement des services de la data plateforme: config management, data collection, data quality, data
transformation, data exposition.
• Conception et développement de la chaîne de CICD
• Connecter les sources de données aux dashboards POWERBI.
• Déploiement de la solution en PROD.
// Contexte :
L’Oréal souhaite développer un dashboard pour suivre les tendances des marques sur les réseaux sociaux.
// Rôle :
• Design et conception du backend data du dashboard.
• Conception des modèles de données.
// Réalisations :
• Automatisation des pipelines de collecte , de transformation et d’ingestion des données non structurées.
• Développement d’un modèle ML permettant d’analyser les sentiments sur les posts des réseaux sociaux .
// Contexte :
L’Oréal souhaite une solution cloud pour centraliser les différents flux de données présents et les mettre à disposition aux
cas d’usage IA.
// Rôle :
• Design et conception de l’architecture cible de la data plateforme.
• Coordinations avec les owners de chaque data source pour définir le mode d’ingestion et d’exposition des données.
• Coordinations avec l’équipe de sécurité pour définir les contraintes de sécurité et valider les solutions proposées.
• Coordination avec les managers des uses cases ML pour cadrer leurs besoins en data.
• Implémentation et développement des services de la data plateforme.
// Réalisations :
• Développement des services de la data plateforme; config management, data collection, data quality, data
transformation, data exposition, automatisation de l’infrastructure, data cataloging, data gouvernance as code.
• Conception et implémentation des APIs pour exposer les données.
• Mise en place de la CICD.
// Contexte :
Carrefour souhaite améliorer son système de détection de ruptures des produits dans les magasins en utilisant l’IA.
// Rôle :
• Workshop d’analyse des besoins des données et cadrage du kick-off technique de la solution.
• Design et conception de l’architecture cible de la solution.
• Contribution à la définition du modèle ML et la partie de features engineering.
• Mise en place et suivi des normes et des best-practices du code au sein de l’équipe.
// Réalisations :
• Développement d’une couche de collecte des données on-premises (Oracle, SFTP) et Cloud.
• Développement et automatisation des pipelines d’ingestion, de transformation et d’exposition des données.
• Mise en place des bonne pratiques de MLops (Mlflow).
• Définition et implémentation des différents mode d’accès aux données ( Bigquery, Datastudio, APIs).
• Mise en place de la CICD ( gestion des environnements, test unitaires/d'intégration, automatisation du déploiement).
• Industrialisation du modèle ML sous forme d’une API.
• Formation des équipes aux outils Devops (Docker, Kubernetes).
// Contexte :
SLPV analytics est une startup parisienne travaillant dans la modélisation ML des problématiques liées au Marketing
et l’étude de marché. J’ai rejoint SLPV en septembre 2016 et j’étais en full time jusqu’à décembre 2018, Ensuite j’ai
travaillé en freelance avec la startup et j’ai repris en parallèle l’étude pour effectuer un master spécialisé en Big Data à
Télécom Paristech.
// Rôle :
• Analyse des besoins clients .
• Modélisation statistique et machine learning.
• Industrialisation et packaging des solutions ML.
• Développement des services informatiques de l’entreprise ( site web, interface d’échange de données, application de
feuille de temps/congés) .
// Réalisations :
• Modélisation Mix-Marketing dans le secteur hôtelier : Modèle bayésien hiérarchique pour déterminer l’impact des
actions marketing au CA.
• Analyse tradeoff dans le domaine de télécommunication : Modèles de régressions pour simuler les meilleurs offres
mobiles.
• Prédiction de churn dans le secteur hôtelier.
• Conception d’un baromètre de suivi de la perception des personnages politiques à partir des réseaux sociaux.
• Prédiction et visualisation des résultats des élections présidentielles.
• Prédiction de parcours de clients en ligne sur un site e-commerce en utilisant les chaînes de markov cachées
• Industrialisation des modèles ML sous forme d’API/ Dashboard.
• Automatisation de la génération des rapports Powerpoints/Excels.