Mission : Concevoir une plateforme d'analyse de données performante, fiable, sécurisée et
évolutive pour apporter les bonnes données au bon endroit, au bon moment et à la bonne
personne
Objectifs et réalisations :
● Dessiner la vision cible à court et moyen terme et les fondements de la plateforme cloud
pour évoluer vers l’IA
● Contribution à la collecte de données dans Google Storage depuis MySQL avec GSUtil
● Industrialiser l’analyse des données, principalement basée sur excel (70%), pour plus de
sécurité (personnes + fuite de données) et d’agilité.
● Modélisation des règles sur Google Big Query
● Moderniser et démocratiser l'accès en libre-service aux données centralisées de
l'entreprise pour chaque business unit
● Réalisation de Benchmarks des outils GCP
● Architecture et développement de la plateforme Data
● Gérer les erreurs BigQuery (Duplicata, Erreurs de schéma…)
● Automatiser la chaîne du Delivery et provisionner l’infrastructure GCP avec Terraform
● Réalisation des tableaux de bord sur Google Data Studio pour les contrôleurs de
gestion..
Objectifs
● Accompagner Damart dans le déploiement de leur stratégie Data à l’horizon 2024
● Déploiement d’une plateforme Data sur le Cloud de Google (GCP) pour les besoins
métiers Finance, RH et DSI avant ouverture à l’ensemble des métiers
● Participation aux phases de recueil et de consolidation des besoins
● Identification, validation et classification des sources d’informations pertinentes
internes et externes
● Définition de la stratégie (enjeux, objectifs, impacts et perspectives) sur le contexte
SI Damart
● Accompagnement des équipes internes pour onboarding sur les sujets liés à la
transformation digitale par la data
Gouvernance du projet
● Planning et cadrage du projet
● Animation des instances de pilotage (CODIR, COPIL)
● Animation des ateliers fonctionnelles et/ou techniques
Co-coordinateur des équipes opérationnelles (Architect, Data Engineer, Data
Analyst)
Architecture Big Data
● Proposition et implémentation de l’architecture Cloud sur GCP
● Modélisation du stockage de l’information dans le Cloud
● Contribution à la rédaction de documents techniques (DAT, ...)
● Rédaction de la cartographie des flux (pour les Archi SI et Urbaniste)
Objectifs :
1. Auditer l’architecture du Datalake existante ( Legacy Analysis )
2. Construire la stratégie DATA et l’organisation des équipes
3. Piloter la réalisation des projets de B.I ( Finance, Marketing, Sales, Fraud, …)
4. Sécurisation des données ( RGPD )
5. Préparer la collecte des différentes sources de données
6. Industrialiser les livraisons (Production, DevOps, Architecture )
Audit du Legacy
● Interviews des acteurs et analyse des documents existants
● Rédaction d’un rapport de recommandation
● Proposition d’une organisation
Gouvernance des projets
● Cadrage des projets
● Animation des instances de pilotage (CODIR, COPIL)
● Coordination des équipes opérationnelles de 20 personnes ( Squad Architect, Squad
BI, Squad Data Gouv, Squad Datascientist )
● Reporting au top Management ( Unit Data, Unit Infra, Unit Architect et COO )
Architecture Big Data
● Mise en place des technologies et conceptuels (Hive, Spark, HBase, Flink)
● Déploiement des applications : Dataiku, Airflow, Zeppelin, Jupyter, SQL Server,
Tableau Software
● Rédaction des documents d’architecture ( DAT, DMEX)
Industrialisation
● Introduction d’outils DevOps ( Git, Nexus, Ansible, CI/CD pipeline )
● Mis en place du Release Management
● Externalisation et délégation d'exécution ressources sur Pod Kubernetes
✓ Data Plateform: Hortonworks (Hive, Spark, Hbase), SQL Server
✓ Analytics : Tableau, Dataiku, Dremio, Zeppelin, Jupyter
✓ Mediation: Apache Sqoop, SSIS, Flink
✓ Gouvernance ; Informatica MDM, Apache Atlas
✓ DevOps : GitLab, Airflow,
✓ Sécurité : FreeIPA, Vault, Ranger
✓ Cloud : OVH Cloud, Kubernetes
Objectifs :
7. Accompagner les métiers (Achats, Marketing, Direction, Distribution) dans la
transformation digitale horizon 2025
8. Fournir aux Marketing B2B des outils de pilotage opérationnelle pour l’animation et la
segmentation commerciale
9. Piloter la réalisation des projets de B.I sur le DataHub Big Data
10. Préparer la collecte des différentes sources de données avec les équipes Médiation
11. Industrialiser les livraisons (Production, DevOps, Architecture )
Gouvernance des projets
● Estimation budgétaire et cadrage des projets
● Animation des instances de pilotage (CODIR, COPIL)
● Animation des ateliers fonctionnelles et/ou techniques
● Coordination des équipes opérationnelles (Architect, Data Scientist, Dev BI, Data
Analyst)
Architecture Big Data
● Contribution aux choix de technologies et conceptuels (Hive, Spark, HBase, Cube
OLAP)
● Contribution à la rédaction de documents techniques (DAT, DMEX)
● Rédaction de la cartographie des flux (pour les Archi SI et Médiation)
● Participation aux réunions de conception
Industrialisation
● Synchronisation avec
● Utilisation de la plateforme IBM Hyperledger sur OpenShift
● Participation au projet Digital Trade Chain Consortium (8 banques) sur l’intégration
des transactions blockchain dans le SI via le Big Data
✓ Systems : AWS, Cloudwatt
✓ Analytics : ElasticSearch, LogStash, Kibana
✓ Data Plateform: Cloudera (Hive, Spark, Hbase)
✓ Mediation: Apache Nifi, Sqoop
✓ DevOps : GitLab, Cloud, Jira
Accompagnement à la rédaction du dossier de choix de la solution décisionnelle GDPR
Accompagnement :
● Rédaction du cahier des charges pour l’appel d’offres
● Animation de la formation de sensibilisation au Big Data
● Participation à la rencontre des éditeurs
Contribution à la notation de notation des candidats
Objectifs :
1. Accompagnement des métiers dans l’appropriation des initiatives Big Data
2. Choix de solutions innovantes dans l’écosystème Big Data
3. Participation au suivi des coûts et inscription des éditeurs
4. Extension de la plateforme Big Data pour l’intégration des projets métiers
5. Réflexion sur l’amélioration de l’initiative d’automatisation du delivery (DevOps)
Architecture sur Big Data :
● Réception des éditeurs dans l’écosystème Hadoop pour benchmark des solutions
● Conception du catalogue logiciel Big Data pour présentation aux sponsors
● Participation et animation de comité d’architecture (CAOE)
● Rédaction de documents d’architecture (DAT, DAU, DAH, DEX…)
● Conception d’une architecture en haute disponibilité et multi-site
Interopérabilité et API
● Contribution à la communication entre deux Cluster Hortonworks
● Traitement de données avec la Blockchain (Hyperledger Fabric, Ethereum)
Reporting sur Big Data :
● Construction de l’offre Reporting pour du pilotage stratégique, tactique et
opérationnel sur les technologies Big Data
● Conception de cubes OLAP avec Hive et Druid (Data Mart)
● Communication avec Microstrategy, Tableau Software, PowerBI et Tibco Spotfire
Gouvernance et Data Management
● Contribution à la mise en place du processus et à l’outillage du Data Management
● Intégration d’une solution de test et qualification de la donnée dans le Big Data
Sécurité et automatisation
● Automatisation de la chaîne d’intégration continue et du déploiement continue
(DevOps)
● Intégration de solution de protection et d’anonymisation des données dans le cadre
reglementaire
Objectifs :
6. S’assurer des déploiements de versions selon la trajectoire jusqu’en 2018 (50
évolutions mineurs par mois – 6 majeurs par an)
7. Pilotage de l’évolution technique de la plateforme (migration des solutions, mise à
niveau de l’infrastructure, rationalisation des environnements)
8. Mise en place d’une démarche d’industrialisation et de DevOps
9. Pilotage de la Performance pour supporter l’augmentation du volume de données →
300 To de données
10. Intégration des travaux du Laboratoire (Traitement hadoop, micro-services)
Gestion de projet : Mise en place du planning, suivi budgetaire et coordination des équipes
(50 dev Teradata, 50 dev Java, 10 dev hadoop).
Evolution du palier Technique :
● Migration des serveurs physique vers des serveurs virtuels
● Participation à la construction de la nouvelle architecture (loadbalancing, PRA)
● Suivi de la migration des souches logiciels (Teradata 14 vers 15, Weblogic, Apache,
Java 6 vers 7) et de la mise à niveau système Redhat Linux de 6 vers 7
Initiative DevOps :
● Automatisation de la chaîne d’intégration continue et du déploiement continue
(intégration Ansibles dans Jenkins et déploiement ...