Projet : Intégration & tests de performance de chaines de collectes & pipelines data en environnement Big DATA & Cloud AWS au sein de département TQA.
Mise en place de pipeline Kafka – AWS
Tests de performance & de capacité Kafka & Monitoring
Automatisation des taches récurrentes & Scripting en Python, Ansible, Shell
Gestion de Repositroy Git
Déploiement de jobs & livrable
Gestion & résolution d’incidents L3
Participer aux différentes cérémonies, réunions & atelier
Création & mise à jour de documentation
Projet : Conception & mise en place d'un datalake en Cloud AWS pour centraliser toutes les données télébillettique, marketing, commerciales & RH afin de faciliter tout traitement de données, garantir la disponibilité de volumétrie données nécessaires pour faire de l’ML & de DataMart.
- Étude des composants applicatifs existants
- Animation de nombreuses ateliers & réunions
- Recensement de tous les flux de données
- Proposition d'une architecture Hadoop pour TICE :
Proposition d'une solution de stockage basée sur HDFS
Proposition de spécifications pipeline de chaine de collecte de données
Prise en compte des chaines de collecte en temps réel (streaming) : kafka & spark streaming
- Participation à la proposition d'une solution Data-lake en Cloud AWS
- Cadrage et livraison de documents d'architecture & de spécifications techniques
Projet : au sein du pôle intégration & administration des applications métiers, en charge de l’intégration des solutions Big DATA et d’infrastructures (ITIM) et en relation avec les équipes de développements/projets (SG-BDDF, SOGECAP)
Exploitation des plates-formes Big DATA en phase RUN.
Gestion de la chaine de collecte de données vers/de la plate-forme Big DATA
Étude d'existant d'architecture DATA et proposition des améliorations et/ou modifications (Nifi, Kafka, API CURL, Elastic Search...etc)
Proposition & Intégration des solutions Big DATA au Client (Études, tests & qualification, mise en production)
Support N3 des projets en production.
L’exploitation et du maintien en conditions opérationnelles des infrastructures Big DATA (portefeuille d'une 10aine d'applications)
Administrateur de clusters de production Hadoop Hortonworks & Cloudera
Expertise sur Hadoop avec des affinités et facilités des services HDFS, Ranger, Zookeeper, Kafka, Yarn, Oozie, Spark. Ranger et Ambari (HDP). Hue. Cloudera-Manager
Automatisation des installations de solutions et de produits avec Ansible comprenant le déploiement, la configuration, la livraison de patch et le troubleshooting.
Exploitation des solutions de monitoring pour les projets en production, les composants HDP et de l'écosystème (Nagios, Grafana, Splunk, ElasticSearch).
L’exploitation de divers mécanismes d'authentification, de sécurité et de haute disponibilité des outils (Ranger/Kerberos, sécurisation SSL des outils, OpenLdap,...)
Création et mise à jour de la documentation d'exploitation et d'étude technique
Intégration de chaîne CI/CD dans le cluster Big Data (Jenkins, Nexus, Ansbile, Ansible Tower)
Fonctionnel :
Suivre la méthode Agile
Remonte et escalade de l’information au différent manager & chefs de projets
Communication & coordination entre équipe socle-infrastructure et projets.
Projet : TMA MESSI Courrier Industriel. Le projet appartient à la branche Courrier de La Poste, les autres branches étant le Colis, l'Enseigne et la Banque Postale. La TMA MESSI comporte une vingtaine d'applications permettant de gérer au quotidien le tri et la distribution du courrier. Mon poste s’agit de faire le référent technique sur l’ensemble des bases de données Oracle, TimesTen, MySQL. Les applications gérées pendant cette mission sont : Anakin, Cocotier/Océan, Orest-Tae, Orest-Wt.
Taches réalisées :
Optimisation / surveillance des BD (configuration, indexation, partitionnement, statistiques ...), rapport OBIEE
Exadata : supervision, dépannage, support
Audit de performance des bases données Oracle, TimesTen, MySQL, rapports OBIEE, MEP
Proposition & amélioration d’architecture de base de données TimesTen (Architecture IMDB, Database cache…)
Support N2/N3 & résolution d’incidents de différents environnements (Build, pre-prod, production)
Administration, Sauvegarde/restauration des bases Oracle Exadata/TimesTen
Interventions au sein de l’équipe Big Data en charge de :
o Intégration de solution utilisant les technologies Big Data (Sqoop, Oracle)
o Support aux développeurs Hadoop
Rédaction des documents techniques
Fonctionnel :
Etudes et analyse de performances
Analyse et résolution des incidents
Niveau de soutien & support 2 et 3
Relationnel :
Suivi et encadrement des développeurs PL/SQL
Projet : Nissan NCD (New Customer Database), le projet consiste à la conception et déploiement d'une solution Business Intelligence de gestion de compagnes marketing dédiées pour les concessionnaires de chacun des 24 pays européens. Il s'agit de maintenir une architecture BI et d'en être le référent technique (Support N2/N3 à la production).
Taches réalisées :
Maintenance et administration des serveurs projets
Assistance à la mise en production
Préparation & intégration de nouveaux environnements (Oracle11g,12c,Informatica 9.1.0, Weblogic 11g)
Installation OBIEE 11g, 12c
Conception et mise en œuvre de solutions
Automatisation des chargements / transfert de fichiers (Shell)
Administration, reporting et suivi d'activité via Cloud Control 12c (Contrôle OEM / Grid)
Administration technique de la solution CRM Neolane (analyse et résolution d’incidents)
Création des nouveaux environnements (DEV, MAINT, …)
Support technique de la chaine de production BO du client NISSAN
Installation et configuration Stonebranch Agents
Support technique aux équipes de développement
Analyse, modélisation et conception de données via PowerDesigner (PowerAMC)
Interventions techniques sur des bases SQL Server 2008, 2012
Fonctionnel :
Proposer une architecture technique
Rédaction des dossiers d’architecture technique
Etude d’impact & installation des patchs Oracle Exadata 12.2.03
Spécification de la chaine de traitement
Projet : Projet AMTF (Application Migration and Transformation Factory) France - Migration des serveurs des Legacy Data Centers de France vers un NGDC (Next Generation Data Center).
Technique :
Migrations complexes et non standards Sanofi des bases de données oracle (8i, 9i, 10g, 11g) Sous Linux/HP-UX/Windows, des applications spécifiques (exemple : Cartridge…),
Correction d’incidents post-migrations des bases de données Oracle migrées par les L2
Faire le Tuning/Optimization des BD Oracle
Répondre aux besoins quotidiens de l’équipe AMTF (migration schémas, bases, objets…, correction des incidents…etc)
Mise en place des backups non standards Sanofi pour des bases Oracle 8i, 9i, 10g, 11g sous Windows/Solaris
Grid control/DB Monitoring
Restore/Backup RMAN
Installation, correction et utilisation de Grid Control 12c / DB monitoring
Installations de différentes versions d’Oracle sous Windows/Linux
Fonctionnel :
Création & actualisation de la documentation technique
Création et administration des BD Oracle pour les différents environnements
Gestion de la sécurité, installation patch, audit de données
Gestion et suivi de l’espace, des erreurs, des ressources et planification des changements
Réorganisation et migrations de données
Restore/Backup RMAN
Assistance aux développeurs, Support N3 aux utilisateurs
Analyse et correction d’incidents
Installations de produits applicatifs
Paramétr...