Notre base de 155515 CV vous permet de trouver rapidement un Data scientist Nice freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.
Contexte mission :
Au sein de l'équipe CRO/PERF e-commerce, j'ai été chargé de définir et de mettre en place des outils métier destinés aux différentes Bu et au groupe. Ma répartition de
tâches s'élevait à 60% pour la création des outils métier et à 40% pour l'analyse des retours clients.
Réalisations :
Conception d'un tableau de bord Power BI dédié au suivi de la qualité des données et à l'analyse des informations provenant de Tempo.
Élaboration de datamarts et création d'un tableau de bord Power BI pour l'analyse des retours clients issus de Qualtrics, des avis clients de Bazaarvoice, et les requests
vers le centre d'appels (taux d'appels, NPS, analyse des sentiments des commentaires, temps de résolution des requêtes, etc.).…
Analyse des retours clients ( via le « center call », NPS , Bazaarvoice) à travres les algorithmes NPL.
Description de la Mission :
En tant qu'Ingénieur/Data Analyst au sein de l'équipe Supply, j'ai dirigé la création et la mise en production de projets de
prévisions, en utilisant AirFlow pour automatiser les processus. J'ai élaboré des modèles de prévision initiale textile, de prévision
saisonnière et de prévision d'activité, fournissant des informations cruciales pour guider les décisions opérationnelles.
De plus, j'ai joué un rôle central dans l'analyse de données pour l'équipe Retail. J'ai conçu et exécuté des projets d'analyse de
données, en suivant un processus complet : depuis la création de mappings et de couches métier (Business Layer), jusqu'à la mise en
place de scripts de récupération de données à partir de diverses sources. J'ai également créé des API et des tableaux de bord pour
visualiser clairement les insights tirés des données.J'ai exploité AirFlow pour orchestrer
les processus de prévision et d'analyse. J'ai manipulé des données à grande échelle en utilisant BigQuery, garantissant des
performances optimales dans le traitement des données. Mon travail a été suivi et partagé via GitHub, facilitant la collaboration et le
suivi des versions.
Description de la Mission :
Pendant une période de 3 ans et 8 mois, j'ai occupé le poste de Data Scientist, avant de prendre en charge pendant 4 mois le
rôle de Manager Datalab en intérim. Cette expérience a enrichi mon parcours professionnel en me permettant de superviser une
équipe et de gérer des projets stratégiques tout en continuant à exercer mes compétences en tant que Data Scientist.
● Data Scientist (3 ans et 4 mois) : En tant que Data Scientist, j'ai contribué activement à l'analyse et à l'interprétation des
données, en utilisant des compétences avancées en Python. J'ai travaillé sur des projets de prévisions, d'optimisation et de
scoring, en exploitant des technologies telles que GCP, Python, DataStudio, Snowflake et Git.
● Manager Datalab en Intérim (4 mois) : Pendant cette période, j'ai assumé le rôle de Manager Datalab par intérim, dirigeant
une équipe composée d'un Data Analyst et d'un Data Engineer. Ensemble, nous avons exécuté des projets clés qui ont eu un
impact significatif sur l'entreprise.
● Projet 1 : Outil de Suivi des Magasins : J'ai supervisé la création d'un outil de suivi des magasins, permettant aux directeurs de
magasins de surveiller les KPIs quotidiennement. Cet outil a renforcé la fidélisation des clients et a permis une planification
plus précise des campagnes publicitaires.
● Projet 2 : Outil d'optimisation des Décotes : J'ai dirigé le développement d'un outil visant à optimiser les stratégies de décote,
contribuant ainsi à une meilleure gestion des marges tout en maintenant l'attrait pour les clients.
● Projet 3 : Outil d'optimisation des Lots Outlet : J'ai supervisé la création d'une solution d'optimisation pour les lots outlet,
améliorant l'efficacité de la gestion des stocks et de la vente des produits en outlet.
● Projet 4 : Outil de Scoring : Nous avons conçu des scores de prédiction pour évaluer les comportements des clients, en utilisant
Python, Google Storage et BigQuery pour fournir des insights stratégiques.
Description de la Mission :
Pendant une période de 4 mois, j'ai occupé le poste de Datascientist, focalisant mes compétences analytiques sur des projets
ciblés et en utilisant des outils avancés pour tirer des insights significatifs.
● Projet 1 : Benchmarking entre Dataiku et Modules Machine Learning GCP : J'ai réalisé une analyse comparative approfondie
entre la solution Dataiku et les modules de machine learning de Google Cloud Platform (GCP). En utilisant les environnements
techniques de GCP et Dataiku, j'ai évalué les avantages, les inconvénients et les performances de chaque solution, fournissant
des informations essentielles pour orienter les décisions en matière de développement analytique.
● Projet 2 : Optimisation de la Gestion des Tickets ITSM Orange CD : Mon travail a porté sur l'optimisation de la gestion des
tickets issus du système ITSM Orange CD. En exploitant les ressources de Google Cloud Platform (BigQuery, Datastudio, ML
Engine), j'ai développé des solutions analytiques pour améliorer la prise en charge des tickets, accélérant les résolutions et
optimisant les processus de support technique.Platform (GCP) comme fondement technologique, en exploitant BigQuery
pour l'analyse de données, Datastudio pour la visualisation, et ML Engine pour le développement et le déploiement de modèles de
machine learning. J'ai également employé les capacités de Dataiku pour des analyses comparatives approfondies.
Description de la Mission :
Pendant une période de 1 an et 4 mois en tant que Datascientist, j'ai travaillé sur une série de projets analytiques diversifiés, en
utilisant une variété d'outils et de technologies pour fournir des solutions innovantes et des insights précieux.
● Projet 1 : Next Product to BUY - LM Brazil : J'ai développé des modèles de recommandation pour le projet "Next Product to
BUY" chez LM Brazil, en utilisant R, Stambia et Teradata pour créer des systèmes d'aide à la décision pour les clients.
● Projet 2 : Analyse Comparative du Panier Moyen Italien et Français - Zodio : J'ai analysé les différences entre les paniers
moyens italiens et français pour Zodio. J'ai exploité Tibco et Teradata pour extraire, transformer et charger les données,
fournissant ainsi des informations clés pour orienter les stratégies de vente.
● Projet 3 : Convergence de Gamme entre GSP et Proxi pour les Bus : J'ai réalisé une étude de convergence de gamme entre GSP
et Proxi pour plusieurs bus. En utilisant Tibco et Teradata, j'ai analysé les données pour identifier les opportunités
d'optimisation des gammes de produits.
● Projet 4 : Industrialisation des Flux de Transfert de Données - ESB vers Oracle Big Data Appliance : J'ai contribué à
l'industrialisation des flux de transfert de données de l'ESB vers la plateforme Oracle Big Data Appliance. J'ai utilisé Stambia et
Shell pour mettre en place des solutions efficaces et automatisées.
● Projet 5 : Importation, Exploration et Analyse des Données de Capture Clients - LM France : J'ai géré l'importation,
l'exploration et l'analyse des données de capture clients pour LM France, en utilisant Teradata, Stambia et Tibco pour obtenir
des insights pertinents.
● Projet 6 : Analyse du Comportement d'Achat Web et Magasin - Marque Inspire : J'ai analysé le comportement d'achat des
produits de la marque Inspire dans 5 Business Units en utilisant Impala et Tibco, fournissant des informations cruciales pour
affiner les stratégies de vente.
● Projet 7 : Scraping des Sites des Concurrents au Vietnam : J'ai développé des scripts de scrapping en utilisant JS, HTML et CSS,
ainsi que Tibco, pour collecter des informations stratégiques à partir des sites des concurrents au Vietnam.
● Projet 8 : Étude de Parcours Web des Clients - LM France : J'ai utilisé Google Analytics, Impala et Tibco pour étudier les
parcours web des clients de LM France, fournissant des idées pour améliorer l'expérience utilisateur et les performances du
site.
Sujet : Démocratisation du BIG DATA au sein des PME clientes de la société INSEPTI
Environnement technique : R, Stambia , SAP PREDICTIVE ANALYTICS, SAP LUMIRA.Use case : Réalisation de la typologie de la clientèle et création de modèles de prédiction des accidents pour une société d’assurance Use case : Mise en place de système de chrun pour une société de télécommunicationEnvironnement technique : R, ACCESS.
● Mission : Réalisation des formations sur des logiciels statistiques R...