− Administration des environnements Data Viz et accompagnements des développeurs pour
l’harmonisation des pratiques de travail et de MEP (Archivage, versionning, sauvegarde etc.)
− Mise en place d’un dashboard pour l’analyse des coûts des outils google cloud
− Migration d’un dashboards existant depuis Data Studio vers Spotfire
− Recette et tests des data model sous BigQuery
− Rédaction des spec fonctionnelles et techniques
Stack Data Studio, Tableau, Spotfire, GCP, BigQuery, JIRA, Confluence
− Accompagnement des étudiants sur des parcours pédagogique : Data Analyst, Data
Architect
− Suivi des travaux des étudiants sur différents projes de développement dans la data autour de SQL,
Python, Architecture Big Data, reporting etc.
− Suivi des étudiants de façon hebdomadaire sur une longue durée, et mise en place des objectifs
et des exercices pédagogique et suivi de la progression des étudiants tout au long des parcours de
formation
Stack SQL, Tableau, Python, Kibana
− Migrations de plusieurs webapps (dashboards) depuis Spotfire vers Microsoft Power BI
− Développement et amélioration de différents webapps Viz/ BI sur différents projets del’équipe
Data Science & Nutrition
− Modélisation du DWH/Datamarts des différents projets, rédaction des specs technique duflux ETL
− Amélioration des performances, temps de chargement et temps de navigation des
webapps et résolution des anomalies
− Migration des données depuis Cloudera Impala vers Snowflake et migration des connexions des
reportings dessus, configuration ODBC et testings des data (SQL)
− Étude et comparatif des solutions Data viz du marché et sélection selon les uses casesinternes
− Mise en place de POC sur différents outils Data viz (Spotfire, Power BI, Microstrategy)
2/5
- Migrations de plusieurs webapps (dashboards) depuis Spotfire vers Microsoft Power BI
- Développement et amélioration de différents webapps Viz/ BI sur différents projets de l’équipe Data Science & Nutrition.
- Modélisation du DWH/Datamarts des différents projets, rédaction des specs technique du flux ETL
- Amélioration des performances, temps de chargement et temps de navigation des webapps et résolution des anomalies
- Migration des données depuis Cloudera Impala vers Snowflake et migration des connexions des reportings dessus,
configuration ODBC et testings des data (SQL)
- Etude et comparatif des solutions Data viz du marché et sélection selon les uses cases internes.
- Mise en place de POC sur différents outils Data viz (Spotfire, Power BI, Microstrategy)
- Compagnes de tests et recettes des données et webapp selon les migrations
- Accompagnement des étudiants sur des parcours pédagogique : Data Analyst , Data Architect
- Suivi des travaux des étudiants sur différents projes de développement dans la data autour de SQL, Python,
Architecture Big Data, reporting etc
- Suivi des étudiants de façon hebdomadaire sur une longue durée, et mise en place des objectifs et des exercices
pédagogique
- Rédaction de compte rendus et suivi de la progression des étudiants tout au long des parcours de formation
Mise en place des évolutions des rapports BI existants et des nouveaux, environ 30 dashboards, plus de 20 000 utilisateurs
sur l’application à travers le monde et plusieurs centaines d’utilisateurs sur les reportings.
- Mise en place des solutions d’amélioration/optimisation des Dashboards (temps de chargement, multilinguisme, filtration
des données selon l’IPN connecté…etc)
- Modélisation du Datawarehouse et des différents Datamarts liés à l’application, rédaction du cahier des charges technique
(en anglais) pour la construction des flux ETL (collaboration avec une équipe Indienne pour les flux ETL)
- Construction de POCs sur certains besoins ponctuels sur Tableau et Power BI
- Mise en place des scénarios de recette et test des flux ETL avec SQL Developeur
- Rôle de Scrum Master : rédaction des US, assurer la bonne application de la méthode, animation des cérémonies (certifiée
Agile)
- Management d’une équipe, formation, à l’application LUP et à la méthodologie de travail et affectation des tâches
Langue de travail : Anglais
Migration d’une base Oracle vers Datalake pour le partage des données de l’application à l’ensemble du service Qualité :
- Etude du périmètre et de la base de données applicative, dénormalisation des tables sources avec le Data Stewart,
construction des flux d’ingestion des tables dans le Datalake en collaboration une équipe Indienne (RNTBCI)
- Lancement des traitements de déploiement sur les différents environnements de recette et production (Jenkins, Oozie)
- Reconstruction du modèle BI dans la nouvelle source DL, reconnexion et reconstruction des rapports BI avec le DL, mise
en place d’un échantillon de rapports sous Spotfire connectés au DL (collaboration avec une équipe en Inde pour une partie
technique).
Dans le cadre de projet de suppression d’un infoservice (univers BO actuel connecté dessous), refonte d’un univers afin
d’améliorer la conception et pouvoir y inclure les différentes données liées aux différents nouveaux modules dans
l’application LUP.
- Recueil des besoins auprès des métiers, animations des différentes réunions de travail autour des besoins fonctionnels,
- Mise en place des versions itératives du nouvel univers BI4,
- Test des données avec les différents reports existants et identifications des écarts.
Recueil des besoins auprès du product owner et key users, rédaction des spécifications fonctionnelles sous
JIRA/Confluence, rédaction de plan et scénario de tests des différentes évolutions pour chaque sprint, participations et
animations des différentes cérémonies Agiles avec les équipes de développement en Inde et France.
Conception et développement de rapports BI et tableaux de bords de suivi du portefeuille produit R&D de l’ensemble des
marques du groupe, mise en place de widgets de navigation sur les portfolios 3DS dans la 3DEXPERIENCE Platform,
participation aux réunions et définition des besoins avec les équipes R&D, participation au projet d’amélioration des
performances du Data Warehouse avec les l’équipe BI internes.