Notre base de 155515 CV vous permet de trouver rapidement un Data scientist Amiens freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.
Projet : Application Shiny de suivi du plan d’affaires des sociétés en temps réel
• Développer dans les application Shiny de nouvelles fonctionnalités, visualisation et tableau de bord
• Fiabiliser les données amonts avant intégration et produire les tableaux de bords de suivi financier
• Traitement et manipulation de données en langage R, SQL
Projet 2 : Assurer la BAU et la gestion de projet de 4 applications métiers
Assurer le bon fonctionnement des applications en BAU, répondre aux demandes d’évolution
Business et techniques, diminuer l’impact des incidents. Être en support du déploiement d’une
nouvelle application dans l’environnement AXA.
• Migration technique de la plateforme applicative Openshift de la version 3 à 4
• Mise en production : Coordination entre les équipes de production, infra et DevOps
• Coordination avec les équipes informatiques des entités pour assurer la continuité des services et
la gestion des incidents niveau L1
• Suivi de la conformité des applications avec les standards du Groupe et la gouvernance IT
• Coordination entre les équipes infra, solution providers, et la DSI pour le déploiement d’une
nouvelle application dans l’environnement AXA
Projet 1: Migration des outils de calculs du métier de la ré-assurance
Assurer le bon fonctionnement des outils de calibration sur les postes des utilisateurs pour anticiper
le dé-commissionnement des applications vers le cloud
• Rétro-ingénierie des applications en R pour identifier les packages et dépendances
• Livrer les packages R nécessaires au bon fonctionnement des applications aux entités (pour une
vingtaine de pays à l'international)
• Suivre la phase de tests des applications par les entités
• Assister les entités pour l'usage des applications sur leur poste en local
• Assister le déploiement en local des nouvelles applications en Shiny
Projet : Application R Shiny de carnet de santé numérique pour les protégés
• Créer une application R Shiny pour le suivi médical des animaux protégés
• Suivre les rappels de vaccins et les médications en cours
• Créer une base de données des consultations et analyses médicales réalisées
Entité : Direction des Systèmes d’Information
Projet : Data Excellence Program
Redresser la qualité des données d’équipements et d’adresses dans le cadre du déploiement de la
Fibre pour fluidifier les échanges du processus de commandes
• Contrôler la qualité de données en termes de format et de contenu
• Investiguer les sources d’erreurs/informations incomplètes puis les transférer aux
correspondants métier ou aux équipes DSI
• Réaliser les Dashboards hebdomadaires des statistiques de qualité de données
• Faire les corrections en masse en base de données à partir des règles de gestion
Entité : Direction de l’Intervention (DI)
Projet 3 : Prédiction des ré-interventions SAV post production (DP30)
Prédire le risque de ré-intervention (SAV) suite à une mise en production d’une nouvelle ligne sur le
marché GP du support Cuivre, domaine Retail et Wholesale.
• Formaliser la problématique métier et définir la démarche méthodologique
• Réaliser le pré-processing : créer de nouveaux indicateurs, recodage des modalités, imputation
des valeurs manquantes, échantillonnage
• Construire les modèles de machine learning : Lasso, forêts aléatoires, XGBoost
• Optimiser les hyper-paramètres de ces modèles via la méthode de Grid Search
• Analyser les causes racines : classification mixte des observations
• Livrer le package R contenant l’ensembles des fonctions développées, commentées et la
documentation qui détaille toutes les étapes de traitement
Technologies utilisées : Hadoop, datalab, Hive, manipulation des tableaux de données sous R
(tidyverse), apprentissage supervisé (Random Forest, Xgboost), contrôle de version via Git
Gains : Détection de 17% du total de réitérations SAV soit 17000 SAV évitées/an
COVAGE
Data Scientist Qualité de données Oct. 2019 – Juin 2020 (8 mois)
Entité : Direction des Systèmes d’Information
Projet : Data Excellence Program
Redresser la qualité des données d’équipements et d’adresses dans le cadre du déploiement de la
Fibre pour fluidifier les échanges du processus de commandes
• Contrôler la qualité de données en termes de format et de contenu
• Investiguer les sources d’erreurs/informations incomplètes puis les transférer aux
correspondants métier ou aux équipes DSI
• Réaliser les Dashboards hebdomadaires des statistiques de qualité de données
• Faire les corrections en masse en base de données à partir des règles de gestion
Technologies utilisées : MySQL, SQL, Power BI, suivi des tickets sur Microsoft Azure DevOps
Gains : Évolution du ratio de prises déployées conformes passant de 65% à 82%
Projet 2 : Performance du défaut de production (DP15)
Analyses croisées du taux de ré-intervention SAV post production (xDSL). Développer des
Dashboard via Qlik Sense à destination des opérationnels en UI
• Collaborer avec les data scientist des directions transverses à la DI, fournisseurs de données /
experts fonctionnel : DERS (Réseau), DMGP (Marketing)
• Data Modeling: appairage des sources de données, dictionnaire de données
• Développer les flux de données pour enrichir les caractéristiques de processus de raccordement
des nouvelles lignes: intervention de production/tests diagnostics/signalisation client/données
techniques de la qualité service réseau
• Industrialiser la production de rapports d’analyses sous l'outil Qlik Sense
Technologies utilisées : Hadoop, Hive, SQL, Qlik Sense, ordonnancement via Oozie
10/2015 - 9/2016
Entité : Pôle Données de la DSI, département LAQ
Projet : Maintenance prédictive de serveurs
Prédire les futures pannes de serveurs informatiques
• Collecter et structurer les données de fonctionnement des serveurs
• Classifier les typologies d’évènements à partir des messages textes
• Construire un modèle de régression logistique et calculer le risque de pannes
Projet : Segmentation clientèle d’un réseau de pharmacies
• Collecter et intégrer dans le système distribué l’historique des données d’achats
• Classifier les caractéristiques d’achats et profils client par la méthode «K-Means»
Projet 1 : Prévision des flux d’intervention des techniciens
Fiabiliser les prévisions d’activités afin d’anticiper l’adéquation activité/ressource optimale
: fonctionnement nominal, entraide, gestion de crise.
• Collaborer avec les data scientists des directions DERS et DSBI, fournisseurs des données
d’impacts de foudres et la météo prévisionnelle à 72h
• Phase POC : Modéliser les flux d'intervention en fonction de l’historique des flux et des facteurs
exogènes (météo et calendrier) et valider les modèles de prévision sur 4 flux SAV/ PROD des
domaines Grand Public et FTTH sur 5 unités d’interventions (UI) pilotes
• Phase industrialisation : Automatiser la collecte de données et les étapes de modélisation sous R
pour produire les modèles de prévisions sur l’ensemble des 27 unités d’interventions reparties
en régions en France
• Intégration des modèles de prévisions dans l’outil de pilotage de l’activité d’intervention sur
Qlik Sense