Contexte : Mettre en place et déployer des modèles de Machine Learning, effectuer des analyses
statistiques ad-hoc permettant d’extraire des insights utiles au business
• Mise en place d’un score permettant de détecter les clients à fort potentiel de réachat
• Mise en place d’un système de recommandation produit
• Industrialisation du nouveau modèle de segmentation client
• Déploiement et mise en place d’un monitoring automatisé des modèles en production
• Administration des machines Dataiku
• Analyses statistiques ad-hoc
• Renfort sur le suivi de la qualité des données de la base CRM
Stack technique : Dataiku, Python (Numpy, Scipy, Pandas, Matplotlib, Scikit-learn), SalesForce, JIRA,
Bigquery, Google Cloud Storage, Cloud Functions, PubSub, Terraform
Contexte : Former à l’utilisation de Python et ses packages pour analyser les données, effectuer
des études statistiques et de Machine Learning
• Découvrir et utiliser Jupyter Notebook et les widgets pour créer des dashboards interactifs
• Rappeler les notions statistiques de bases pour l’analyse de données
• Expliciter le fonctionnement des bibliothèques utilisées en analyse de données (Numpy,
Scipy, Pandas)
• Expliciter le fonctionnement de la bibliothèque Matplotlib pour la Data Visualisation
• Expliciter le fonctionnement de la bibliothèque Scikit-learn pour le Machine Learning
• Mettre en place les ateliers pratiques pour chaque partie.
Contexte : Développer et mettre en place de la V1 de l’application Web de monitoring musical
• Récupérer les données via des APIs
• Transformer et mettre à disposition les données dans l’entrepôt de données
• Modéliser et créer le datamart servant l’application
• Intégrer les données de monitoring
• Installer et configurer le serveur d’hébergement (AWS EC2)
• Mettre en place les certificats SSL/TLS
• Effectuer le développement Backend avec Python
• Effectuer le développement Frontend avec HTML, CSS, jQuery
• Configurer et mettre à disposition le serveur de mail
Objectif : Analyse des données et refonte de la segmentation clients existante
> Création d’une base de données d’étude à partir de fichiers plats
> Analyse de la qualité des données
> Analyse des données et création d’indicateurs pertinents
> Réalisation de statistiques descriptives
> Segmentation de la base client
Objectif : Analyse de la qualité des données en task force
> Analyse de la qualité des données
> Application de règles de déduplication
> Recommandations pour nettoyer et améliorer la qualité des données
Objectif : Analyse des données en vue d’une segmentation client
> Analyse des données et création d’indicateurs pertinents
> Réalisation de statistiques descriptives
Objectif : Nettoyage et/ou pruning des anciennes offres du parc par migration automatique.
> Analyse des offres et options détenues, et définition des règles de gestion
> Définition d’une matrice détaillée de migration qui sera intégrée dans le SI
> Bilan de migrations (Suivi des lignes, analyse et suivi du churn, analyse CA pré/post migration)
Guide
Objectif : Enrichissement d’une enquête avec les données individuelles des bénéficiaires APA / Remontées
des données individuelles sur les bénéficiaires de la PCH ; création de bases de sondage et d’étude.
> Collecte des données auprès de 94 conseils départementaux, automatisation et optimisation de
programmes SAS pour la collecte
> Traitement et mise en conformité des données :
▪ Apurement des données, Définition de règles de correction, Homogénéisation des données
▪ Recodage de variables, Imputation des valeurs manquantes, Création d’indicateurs pertinents
> Constitution des bases, de sondage et d’étude et réalisation de statistiques descriptives
> Analyse de la qualité des données et statistiques descriptives
> Mise en place de tableaux de bords mensuels résumant les principaux KPIs
> Extractions et mise à jour mensuelle d’une application web (données)
> Etudes ad-hoc/servant à mesurer l’impact des campagnes Marketing
> Construction d’un modèle de classification sur une catégorie particulière des membres (SVM sous R)
Projets récents
Création application Web (en
développement actif)
Objectif : dashboards sur les données
des plateformes musicales
Stack technique → Fullstack :
Backend = Django, Python,
Docker, PostgreSQL
Frontend = jQuery, HTML,
CSS (Bootstrap)
Mise en place d’un système de
gestion de flux de données
Objectif : collecte en temps réel de
flux de données et stockage dans un
système NoSQL
Stack technique → Docker, Kafka,
Cassandra, Python
Analyse de sentiment (NLP)
Objectif : prédire la note d’un film à
partir du texte de la revue IMDB