• Conception, Mise en place et Diffusion du cadre d’architecture (Processus d’instruction, règles et Patterns)
• Urbanisation du Data Lake Hadoop et AWS
• Contribution à la mise en place et maintien de l’architectures des données
• Contribution à la définition des stratégies technologiques Big Data du Groupe.
• Etude et mise en place des pipelines d’ingestion est traitement de données
• Mise en place des solutions de collecte et stockage des données sous HDFS et Cloud (AWS)
• Etude des solutions techniques data science
• Expertise technique sur les composants Big Data/Hadoop
• Accompagnement des projets métier BDDF (Banque De Détail France de la Société Générale) et de leur transformation aux technologies Big Data
• Conception architecture fonctionnelle, applicative et technique
• Etude et veille technologique sur le Big Data et la Data Science
• Etude comparative des solutions Big Date et data science, POC de nouveaux outils
• Rédaction des Documents d’architecture technique
L’équipe Digital Booster a pour rôle d'implémenter les projets Digitaux des partenaires AXA en favorisant la mise en œuvre des solutions de Cloud Privé et de Big Data
• Conception et mise en place d’un cluster HDP
• Administration et maintenance du cluster (20 nœuds)
• Collecte des données (Sqoop, Flume, Kafka) et stockage sous HDFS
• Mise en place de l’analyse prédictive avec l’outil RapidMiner
• Analyse des logs pour la maintenance applicative
• Traitement de données Pig, Hive et Impala
• Management d’une équipe de 5 personnes pour l’étude et la conception de l’outil d’archivage et de gestion de la logistique (taille projet supérieur à 2000 h/j)
• Pilotage et suivi de la réalisation par le prestataire en mode forfait
• Gestion des charges, planning et ressources
• Coordination et animation d’équipes (MOA, MOE et prestataire externe)
• Animation comité projet interne et externe, participation au Copil
• Résolution de problèmes et gestion de crise
• Recueil et formalisation des besoins en termes d’impression sur l’ensemble du cycle logistique
• Contribution à la recette fonctionnelle et des tests de performance (faisabilité, stratégie et pilotage)
• Etude et mise en place d’une plateforme Big Data (Création d’un cluster Hadoop de 20 Serveurs, puis extension à 40 serveurs)
• Etude capacitaire et dimensionnement de plateformes Big Data
• Réalisation des POCs Big Data (Analyse des logs, détection de la fraude et intrusion, Churn, analyse sentimentale)
• Traitement de données avec Hue, Pig, Hive et Impala
• Ordonnancement des taches avec Oozie
• Mise en place de la collecte des données multi source (Sqoop, Flume) et stockage sous HDFS
• Etude d’opportunité et sélection des outils BI
• Modélisation multidimensionnelle des données relationnelles
• Réponses aux RFI, RFP et Due Diligence
• Supports aux équipes commerciales et Veilles technologique
Projet (SFR) : Incident Management (AMDOCS Clarify TT, CRM)
Responsabilités
• Management d’une équipe de 4 personnes pour réalisation maitrise d’œuvre dans le cadre de l’application de gestion AMDOCS Clarify TT, principale application de gestion des incidents chez SFR
• Gestion des charges, planning et ressources
• Coordination et pilotage avec les partenaires externe (MVNO, operateurs…)
• Analyse et maîtrise des coûts, délais et risques
• Contribution aux évolutions d’architecture technique et fonctionnelles
• Études et proposition des solutions sur des projets complexes
• Rédaction des spécifications fonctionnelles et technique
• Rédaction de la stratégie de test et des cas de test
• Suivi et coordination des phases de tests (VABF, VSR,)
• Management d'une équipe de 8 personnes (on site) dans le cadre d’une TMA SFR pour le Back office, bloc applicatif regroupant 20 applications dans 5 domaines (revenue management, moyen de paiements, Billings, éditique, revenue assurance), taille des projets supérieurs à 8000 h/j par an
• Analyse et maîtrise des coûts, délais et risques
• Animation et suivi des études techniques et fonctionnelles
• Gestion des SLA, KPI, de contrat et de la relation avec éditeur
• Contribution à la mise en place de l’architecture technique des flux de données
• Contribution aux évolutions d’architecture technique et fonctionnelles
• Rédaction des spécifications fonctionnelles, technique et de la stratégie de test
• Transfert de connaissance aux équipes (offshore)
• Management d'une équipe de 3 personnes (on site) dans le cadre d’une TMA SFR pour le Back office, bloc applicatif regroupant 20 applications dans le domaine des moyens de paiement, taille des projets supérieurs à 1000 h/j par an
• Planification des projets et des ressources (offshore et on site)
• Etudes et proposition des solutions techniques et fonctionnelles dans les domaines des moyens de paiement (SEPA, PCI DSS…)
• Rédaction des spécifications fonctionnelles et technique
• Contribution à la mise en place de l’architecture technique des flux de données
• Développement des flux de données issues des différents systèmes opérationnels
• Transfert de connaissances à l’offshore
Projets FusionWorks, Data and Content Billings, Orange France
Responsable du domaine fonctionnel
• Etudes fonctionnelles de plusieurs versions applicatives.
• Développement des flux de données issues des différents systèmes opérationnels
• Contribution aux études réalisées par les experts Openet et l’équipe Package
• Gestion de la relation fournisseur (trois prestataires externe).
• Coordination des activités de l’équipe sur les aspects paramétrage fonctionnel et technique.
• Conception et mise en place de cluster Hadoop Multi tenant (distribution Cloudera)
• Administration des clusters Big data (4 clusters, plus de 300 nœuds)
• Mise en place du suivi et du monitoring du cluster via CM, ELK et Zabbix
• Gestion et optimisation des ressources du cluster
• Support Niveau L3
Data engineering
• Contribution à la mise en place et maintien de l’architectures des données
• Conception et déploiement des applications Big Data
• Migration DWH vers le cluster Hadoop
• Mise en place des flux d’alimentation de données dans HDFS via diverses sources
• Collecte des données (SFTP, Sqoop, Flume, Kafka) et stockage sous HDFS
• Mise en place des procédures de chiffrages et déchiffrages des données dans le data Lake
• Mise en place des chaines de traitement ordonnancées de gros volume de données
• Lead technique sur les projets Big Data