CV/Mission d'Expert hbase freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Expert hbase habitant le Val-de-Marne (94)

  • Rôle : Architecte BIG DATA & Cloud

    DataValue Consulting
    Jan 2019 - aujourd'hui

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
    Réalisation :
    ⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7

    ⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques

    ⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
    ⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
    ⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.

    Environnement : Hortonworks, Cloudera, Spark/Scala, Hive, Impala, NIFI, PowerBi, Qlikview
  • Rôle : IT Manager & Architecte DATA & Cloud

    Dior, Loréal, Stime, BDF (chez Umanis)
    Jan 2018 - Jan 2019

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
    Réalisation :
    ⦁ Accompagnement en choix d’architecture.
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
    ⦁ Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Recrutement : entretiens techniques

    Environnement : Hortonworks, Spark/Scala, Hive, Hbase, PowerBI
  • Rôle : Architecte BI / BIG DATA

    Natixis
    Jan 2018 - Jan 2018

    Synthèse : Audit d’une plateforme Big Data
    Réalisation :
    ⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
    ⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
    ⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive

    Environnement : Oracle, Cassandra, Spark, Play, Kafka, REST proxy, Avro, Git
  • Rôle : Architecte BIG DATA & Cloud

    SEENERGI / ELEVAGE
    Jan 2018 - Jan 2018

    Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
    Réalisation :
    ⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
    ⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
    ⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
    ⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
    ⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
    ⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
    ⦁ Rédaction des documents d'exploitation et des bonnes pratiques

    Environnement : Microsoft Azure, PowerBI, HDFS, Kerberos, Ranger
  • Rôle : Architecte BIG DATA & CLOUD

    AVELTYS / IMMOBILIER
    Jan 2018 - Jan 2018

    Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
    Réalisation :
    ⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
    ⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
    ⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
    ⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
    ⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.

    Environnement : Azure, Kafka, Spark Streaming, NodeJS, Cosmos DB, PowerBI
  • Rôle : Expert technique BIG DATA

    Société Générale
    Jan 2015 - Jan 2018

    Synthèse : Mise en place d’une architecture.
    Réalisation :
    ⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
    ⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
    ⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
    ⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng  Kafka  Spark  ElasticSearch  Kibana)
    ⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
    ⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
    ⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube

    Environnement : HortonWorks 2.6, Hunk 6.3.3, RStudio, Ranger, Ambari, ElasticSearch, Nagios, Ganglia, OpenLDAP, Oozie/Hue, Linux 7.2
  • Rôle : Administrateur SAP

    APRIL INTERNATIONAL EXPAT
    Jan 2015 - Jan 2015

    Synthèse : Mise en place d’un Cluster CRM.
    Réalisation :
    ⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
    ⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
    ⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
    ⦁ Supervision des machines de production (JVM, RAM, CPU)
    ⦁ Réorganisation physique des disques sous Linux
    ⦁ Rédaction des documents d’exploitation et des best practices

    Environnement : Oracle 11g, Linux, Cleva
  • Groupe ALLIANZ – LA DEFENSE (via IBM)N°1 Européen en Assurances
    Jan 2008 - Jan 2014

    Equipe IBM : Architecture et Support des Systèmes Ouverts
    - Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
    - Diagnostic et résolution des incidents sur les bases existantes.
    - Support deuxième et troisième niveau.
    - Tuning des bases de production (AWR, DB2TOP, scripts maison).
    - Optimisation des requêtes SQL et code PLSQL.
    - Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
    - Création et suivi des demandes de changements techniques.
    - Suivi et mise en production des livraisons BD sous VTOM et DataStage.
    - Administration du CRM Siebel et du progiciel Master-I.

    Environnement : AIX 6.1, ORACLE 11gR2, RMAN, DB2 8 et 9.5, Websphere, ETL DataStage VTOM 5.4, SIEBEL eBusiness Applications 7.7, MASTERI
  • SGAM (Société Générale Asset Management)
    Jan 2007 - Jan 2008

    Applications DREAMS & GESCO (Gestion des actifs et obligations)
    - Administration des différentes bases de données Oracle (développement, recette et production).
    - Tuning des bases (Statpack, AWR, scripts maison).
    - Audit et gestion des incidents.
    - Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
    - Support projet (optimisation requête, validation des procédures stockées).

    Environnement : Oracle 9i/10g, PL/SQL, Linux, Weblogic, Java.
  • BNPParibas (Credit Risk Management)
    Jan 2006 - Jan 2007

    Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
    - Administration des bases de données Etudes, et de pré-production.
    - Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
    - Support au développement (optimisation requête, validation des scripts).
    - Rédaction des documents d’installation et d’exploitation.

    Environnement : Oracle 9i/10g, PL/SQL, Unix, .NET, C#.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Expert hbase, Missions Expert hbase, Expert hbase freelance

Les nouvelles missions d'Expert hbase

Expert Big Data Hadoop

Cloudera TALEND
ASAP
72 - Le Mans
3 mois
Voir la mission

Expert Big Data - Technologies Cloudera

PYTHON TALEND
ASAP
72 - LE MANS
36 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Expert hbase disponibles

CV Développeur JAVA et Data
Jeremy

Développeur JAVA et Data

  • TOURS
JAVA SQL POSTGRESQL APACHE KAFKA BIG DATA
Disponible
CV Data Engineer (Big Data)
Saad

Data Engineer (Big Data)

  • COLOMBES
SQL Databricks APACHE SPARK PYTHON APACHE HIVE Snowflake APACHE HBASE BIG DATA DECISIONNEL AZURE
Disponible
CV CTO / Directeur Technique
Sorel

CTO / Directeur Technique

  • PARIS
Cloud AWS AZURE LINUX AGILE DOCKER Kubernetes SAN LAMP SQL OPENSTACK
Disponible
Je trouve mon freelance