Expertises : CEGID, SQL , Power BI ,
JIRA, python
CHANEL / Mission Support data analyst / Mise à jour applications / rapports Power BI et data
science
• Analyse et résolution des différents soucis et bugs rencontrés par les
utilisateurs de la solution CEGID ( gestionnaire de paiement) qui représente l’activité
principale
• Donner des formations sur certaines applications nécessaires utilisées par
le groupe Chanel
• Correction d’anomalies sur le système de gestion service now « SNOW »
• Récolte des données RFID ( Scan étiquettes ) et prise d’appels pour expliquer
et résoudre les problèmes rencontrés des utilisateurs.
• Communications d’urgence et gestion des différentes mise à jour d’une dizaine
d’applications.
• 1 à 2 jours par semaine pour tester des algorithmes machine learning sur la proposition de
produits aux clients (python / jupiter notebook).
• Elaboration et présentation des KPI et reportings power BI sur les statistiques RFID
• Support IT et Helpdesk avec certains utilisateurs.
• Mise au point d’une solution pour le client à l’aide de l’outil « ICM Varicent »
pour le commissionnement des courtiers.
• Analyse et nettoyage de flux des données client avec l’outil ICM varicent (
visualisation de données , création de rapports web , requêtes SQL , création
de table , mise à jour de calcul …etc)
• Conceptualisation des maquettes d’interface web des utilisateurs
• Mise en oeuvre des rapports web
• Intégration des fichiers de données à l’aide de l’outil Varicent ICM
• Correction d’anomalies sur le système de gestion « Jira » d’Atlassian.
• Maintenance et assistance de l’environnement de prod en cas d’anomalies
• Mise au point d’une solution pour le client à l’aide de l’outil « ICM Varicent » qui
consiste à afficher des rapports web personnalisés par le client qui contiennent
des données commerciales (ou autre) paramétrées selon chaque profil
d’utilisateur et permettant d’effectuer des opérations et tâches quotidiennes
dans les rapports (modification , cadrage , répartition , tri , effectuer des
demandes , approbation des demandes , …etc)
• Analyse de flux des données client avec l’outil ICM varicent ( visualisation de
données , création de rapports web , requêtes SQL , création de table , mise à
jour de calcul …etc)
• Conceptualisation des maquettes d’interface web des utilisateurs
• Mise en œuvre des rapports web
• Correction d’anomalies sur le système de gestion « Jira » d’Atlassian.
• Data engineering sur la partie SPSS
Etudes de Poc sur la « Maintenance prédictive »
• Mise en place d’un modèle de prédiction des rappels de voitures
• Analyse des données : correction des incohérences, nettoyage et optimisation
de la table de données qui représente l’ensemble des informations des pièces
de voiture (pompes , cylindre,…etc) associées à chaque identifiant.
• Traitement de données : comparaison des différents modèles machine learning
(k-means, neural network, arbres de décisions …etc) et associer le meilleur
modèle pour prédire la colonne cible « retours » qui indique le nombre de
retour de la voiture.
Etudes de Poc en groupe pour prédire la probabilité qu’un client demande un prêt.
• Analyse de la table de données ( > 100 000 lignes) qui représente les
informations sur les clients (nationalité , nombre de prêts effectués …etc) et
leurs intérêts (positif/ négatif) à vouloir accepter un prêt d’une grosse somme
d’argent.
• Traitement et prédiction de la colonne cible « intérêt » par des modèles de
machine learning qui déterminent si oui ou non le client est intéressé par un
prêt.
Intervention en tant que Data scientist
• Analyse des données : assemblage des 12 tables fournies par le client
(jointures entre les tables , écarter les différentes colonnes qui n’apportent pas
de valeur ajoutée à la prédiction, nettoyage…etc) , cette étape constitue 70%
du projet au vu de la polyvalence des données.
• L’objectif est d’aider les watchmakers à détecter où se situe la panne en
analysant les retours déjà enregistrés dans la table de données.
• Modélisation de la table finale afin de comparer les résultats de prédiction pour
chaque modèle.
Etudes, récolte de données, création et comparaison des modèles machine learning pour le tri
automatique des données.
• Analyse des données e-commerce (tout type de produits), l’objectif est de
classifier les produits de manière automatique par groupe ( produits
alimentaires, produits nettoyants …etc)
• Utilisation des modèles de classification (k-means , SOM, …etc) et Pyspark
pendant le traitement de données.
• Comparaison des modèles.