Contexte : Dans le secteur de la grande distribution, AHI ES supermarché souhaite automatiser
la détermination du prix de ses articles.
Expertise fonctionnelle : cadrage du projet
• Ateliers avec les métiers, construction du datalake représentatif du use case
• Création de la méthodologie de travail
Expertise technique : création de l’algorithme de prédiction du prix des articles
• Configuration de l’environnement en mode parallélisé
• Data crunching et data préparation
• Statistique descriptive, analyse factorielle multiple et clustering
• Entrainement de quatre modèles : Random Forest, SVM, XGBoost et le modèle ensembliste
• Méthode d’entrainement : validation croisée, recherche des paramètres par grid search et
bayesian optimization
• Sélection du meilleur modèle, étude des résidus et marge d’erreur
• Reporting et présentation aux métiers
Contexte : DATALAB, entité de la DSI chargée d’industrialiser, déployer, mettre en production et
maintenir le run des projets Data Science, Machine Learning et Intelligence Artificielle.
Expertise fonctionnelle : Coordinatrice de projets de bout en bout
• 4 entités : équipe Métier, équipe Médiation, équipe Data Scientists et équipe Data Engineers
• Scrum Master : mise en place de la méthodologie Agile/Scrum, garant de l’agilité au sein de
l’équipe, organisation et animation des évènements SCRUM (sprint planning, sprint review,
rétrospective), responsable du Jira Datalab
• Product Owner Proxy : cadrage et formalisation des besoins de l’équipe Data Science (uses
stories), animatrice des ateliers de grooming
• Reporting de l’état d’avancement des projets
• Veiller à la documentation et la mise à jour des documents des process techniques au sein de
l’équipe : PSAT, DMEX, SFD, SPEC, documents projets sur Confluence
• Suivi et participation aux projets dès la phase exploratoire afin d’anticiper la phase
d’industrialisation
• Assurer la visibilité de l’équipe au sein de la DSI SGDBF et auprès des métiers
• Forte contribution à la cohésion et l’épanouissement de l’équipe
Expertise technique : Responsable et suivi de l’ingestion des données
• Planification et suivi accostage des tables : spec techniques $U
• Recette technique des données lors de la migration sur Azure : scripts Python, job databricks,
job CDSW
• Recueil des nouveaux besoins, préparation et passage en comité d’architecture
Contexte : AGORA, projet qui a pour vocation à mesurer la performance pédagogique des
formations multimodales ainsi que leur impact sur l’accès à la formation et les parcours comme
sur l’insertion dans l’emploi.
Expertise fonctionnelle : Conception de l’outil d’analyse de la qualité des données AGORA
• Cadrage du projet Qualification des données AGORA : identification des interlocuteurs,
animation des ateliers de travail pour le recueil du besoin métier, rédaction des comptes
rendus et validation avec les métiers
• Création de la méthodologie de travail adapté au besoin et à l’environnement
• Planning, jalons et gestion des risques
• Proposition des scénarios du dispositif adéquat adapté à l’environnement existant, échanges
et validation
• Chiffrage des différents scénarios et du projet
• Échanges avec les architectes et participation à la configuration des environnements
Expertise technique : création de l’outil d’analyse de la qualité des données AGORA
• Installation du Client Microsoft R / Microsoft R Open
• Configuration du protocole de communication avec le Serveur via RevoScaleR
• Création et évolution des scripts d’analyse de données et automatisation
• Tests unitaires
• Création des indicateurs de qualité des données
Operational Intelligence via analyse vidéo : solution BI temps réel alimentée par des KPI produits
par un moteur d’analyse vidéo. Projet amélioré dans le contexte du Coronavirus pour limiter le
nombre de personnes dans les espaces filmés, surveiller l’application des distanciations et
estimer le temps d’attente dans des espaces via une approche Machine Learning
• Expertise Dataviz et Data Science : pilotage et supervision d’un consultant
• Construction du Data Lake, Data crunching et automatisation
• Développement d’algorithmes d’apprentissage
• Création des tableaux de bord
COMOB (Connaissance de la Mobilité), 900 utilisateurs inscrits, plus de 70 utilisateurs
connectés par mois : application intranet qui donne une vision sur le trafic, l’évolution des flux
voyageurs, la qualité de service, la lutte anti-fraude sur le réseau Transilien
• Pilotage de la migration de l’outil sur une nouvelle plateforme Azure : principale interlocutrice
métier avec la DSI, gestion des risques, gestion du planning et suivi des coûts
• Experte Data Viz : Benchmark des outils Data Viz - Pilotage de la migration de l’outil vers un
nouvel outil de Data Viz
• Data Science : programmes et analyses ad hoc pour répondre à des besoins d’estimation du
trafic
• Animation d’ateliers et formation des métiers
Mise en place de modèles prédictifs sur la consommation d’énergie dans des centres
commerciaux du groupe et optimisation des commandes (chauffage/climatisation) pour améliorer
l’expérience client et optimiser la consommation
• Analyse des données historiques de consommation énergétiques et des relevés
météorologiques
• Démonstration qu’il est possible de proposer des réglages optimisés de la GTC
• Modélisation de la consommation électrique
• Création des tableaux de bord et proposition des axes d’amélioration
• Présentation et échange avec les métiers
INNOTHERA
Optimisation de la campagne de ciblage marketing d’un produit sur le territoire français
• Cadrage et chiffrage du projet
• Construction du Data Lake représentatif du besoin métier
• Data Préparation et Data Crunching des données
• Analyse exploratoire et profilage des clients
• Analyse prédictive et déduction des facteurs impactant le chiffre d’affaires
• Proposition de recommandations et présentation à la Direction
EISTI
Animation de formations Data Science
• Préparation et rédaction des cours d’analyse de données en Master II
• Animation des cours : méthodologie et étapes d’analyse en data science, explication des
modèles de machine Learning illustrés d’exemples.
• Présentation et utilisation du framework Spark : Spark MLlib
• Préparation et animation d’un TP pour la mise en pratique de quelques modèles de Machine
Learning sur un cas concret
TALAN
Talan IA : développement d’une solution automatisée de Machine Learning :
• Data Scientist, responsable des développements du lot « Apprentissage non supervisé »
• Optimisation d’algorithmes d’apprentissage non supervisé : critères de convergences,
validation croisée, sélection et paramétrage des modèles
Refonte du SI – Socle Import/Export : Développement d’une application Import-Export qui permet
l’enregistrement et le contrôle des courriers à l’international
• Développement des web services pour l’envoi des informations vers le front et la récupération
des informations depuis le front
• Post et récupération des flux de données via des bus kafka
• Création, Lecture et écriture au fil de l’eau dans des tables Cassandra et Sybase
• Industrialisation : déploiement continue via les jobs jenkins et analyse des logs Spark
CAB TENDANCE : outil d’estimation du trafic et des flux voyageurs sur le réseau Transilien
• Développement des scripts d’estimation des flux voyageurs
• Qualification et pilotage des indicateurs de mesure de trafic : KPI évolutions du trafic, rédaction
des livrables mensuels et trimestriels
• Pilotage de la campagne de vérification des compteurs automatiques : échanges avec
l’institut, organisation et planification, recettes, analyse des données et présentation des
résultats
• Recueil du besoin et création des tableaux de bord
• Animation et coordination des ateliers de forma...
Smart Airport : prédiction et optimisation du temps d’attente des taxis en aéroport et optimisation
de l’utilisations de parking
• Définition des uses cases métier et analyse des données
• Rédaction de l’expression de besoin
• Participation à la construction du Datalake
• Data Crunching et automatisation
• Développement d’algorithmes d’apprentissage
• Création des tableaux de bord