Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
Réalisation :
⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7
⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques
⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.
Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
Réalisation :
⦁ Accompagnement en choix d’architecture.
⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
⦁ Formations en interne (Big Data, Cloud) pour les consultants
⦁ Recrutement : entretiens techniques
Synthèse : Audit d’une plateforme Big Data
Réalisation :
⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive
Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
Réalisation :
⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
⦁ Rédaction des documents d'exploitation et des bonnes pratiques
Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
Réalisation :
⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.
Synthèse : Mise en place d’une architecture.
Réalisation :
⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng Kafka Spark ElasticSearch Kibana)
⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube
Synthèse : Mise en place d’un Cluster CRM.
Réalisation :
⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
⦁ Supervision des machines de production (JVM, RAM, CPU)
⦁ Réorganisation physique des disques sous Linux
⦁ Rédaction des documents d’exploitation et des best practices
Equipe IBM : Architecture et Support des Systèmes Ouverts
- Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
- Diagnostic et résolution des incidents sur les bases existantes.
- Support deuxième et troisième niveau.
- Tuning des bases de production (AWR, DB2TOP, scripts maison).
- Optimisation des requêtes SQL et code PLSQL.
- Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
- Création et suivi des demandes de changements techniques.
- Suivi et mise en production des livraisons BD sous VTOM et DataStage.
- Administration du CRM Siebel et du progiciel Master-I.
Applications DREAMS & GESCO (Gestion des actifs et obligations)
- Administration des différentes bases de données Oracle (développement, recette et production).
- Tuning des bases (Statpack, AWR, scripts maison).
- Audit et gestion des incidents.
- Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
- Support projet (optimisation requête, validation des procédures stockées).
Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
- Administration des bases de données Etudes, et de pré-production.
- Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
- Support au développement (optimisation requête, validation des scripts).
- Rédaction des documents d’installation et d’exploitation.