CV/Mission d'Expert hbase freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Expert hbase habitant le Val-de-Marne (94)

  • Rôle : Architecte BIG DATA & Cloud

    DataValue Consulting
    Jan 2019 - aujourd'hui

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
    Réalisation :
    ⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7

    ⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques

    ⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
    ⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
    ⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.

    Environnement : Hortonworks, Cloudera, Spark/Scala, Hive, Impala, NIFI, PowerBi, Qlikview
  • Rôle : IT Manager & Architecte DATA & Cloud

    Dior, Loréal, Stime, BDF (chez Umanis)
    Jan 2018 - Jan 2019

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
    Réalisation :
    ⦁ Accompagnement en choix d’architecture.
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
    ⦁ Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Recrutement : entretiens techniques

    Environnement : Hortonworks, Spark/Scala, Hive, Hbase, PowerBI
  • Rôle : Architecte BI / BIG DATA

    Natixis
    Jan 2018 - Jan 2018

    Synthèse : Audit d’une plateforme Big Data
    Réalisation :
    ⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
    ⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
    ⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive

    Environnement : Oracle, Cassandra, Spark, Play, Kafka, REST proxy, Avro, Git
  • Rôle : Architecte BIG DATA & Cloud

    SEENERGI / ELEVAGE
    Jan 2018 - Jan 2018

    Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
    Réalisation :
    ⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
    ⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
    ⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
    ⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
    ⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
    ⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
    ⦁ Rédaction des documents d'exploitation et des bonnes pratiques

    Environnement : Microsoft Azure, PowerBI, HDFS, Kerberos, Ranger
  • Rôle : Architecte BIG DATA & CLOUD

    AVELTYS / IMMOBILIER
    Jan 2018 - Jan 2018

    Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
    Réalisation :
    ⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
    ⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
    ⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
    ⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
    ⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.

    Environnement : Azure, Kafka, Spark Streaming, NodeJS, Cosmos DB, PowerBI
  • Rôle : Expert technique BIG DATA

    Société Générale
    Jan 2015 - Jan 2018

    Synthèse : Mise en place d’une architecture.
    Réalisation :
    ⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
    ⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
    ⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
    ⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng  Kafka  Spark  ElasticSearch  Kibana)
    ⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
    ⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
    ⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube

    Environnement : HortonWorks 2.6, Hunk 6.3.3, RStudio, Ranger, Ambari, ElasticSearch, Nagios, Ganglia, OpenLDAP, Oozie/Hue, Linux 7.2
  • Rôle : Administrateur SAP

    APRIL INTERNATIONAL EXPAT
    Jan 2015 - Jan 2015

    Synthèse : Mise en place d’un Cluster CRM.
    Réalisation :
    ⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
    ⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
    ⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
    ⦁ Supervision des machines de production (JVM, RAM, CPU)
    ⦁ Réorganisation physique des disques sous Linux
    ⦁ Rédaction des documents d’exploitation et des best practices

    Environnement : Oracle 11g, Linux, Cleva
  • Groupe ALLIANZ – LA DEFENSE (via IBM)N°1 Européen en Assurances
    Jan 2008 - Jan 2014

    Equipe IBM : Architecture et Support des Systèmes Ouverts
    - Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
    - Diagnostic et résolution des incidents sur les bases existantes.
    - Support deuxième et troisième niveau.
    - Tuning des bases de production (AWR, DB2TOP, scripts maison).
    - Optimisation des requêtes SQL et code PLSQL.
    - Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
    - Création et suivi des demandes de changements techniques.
    - Suivi et mise en production des livraisons BD sous VTOM et DataStage.
    - Administration du CRM Siebel et du progiciel Master-I.

    Environnement : AIX 6.1, ORACLE 11gR2, RMAN, DB2 8 et 9.5, Websphere, ETL DataStage VTOM 5.4, SIEBEL eBusiness Applications 7.7, MASTERI
  • SGAM (Société Générale Asset Management)
    Jan 2007 - Jan 2008

    Applications DREAMS & GESCO (Gestion des actifs et obligations)
    - Administration des différentes bases de données Oracle (développement, recette et production).
    - Tuning des bases (Statpack, AWR, scripts maison).
    - Audit et gestion des incidents.
    - Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
    - Support projet (optimisation requête, validation des procédures stockées).

    Environnement : Oracle 9i/10g, PL/SQL, Linux, Weblogic, Java.
  • BNPParibas (Credit Risk Management)
    Jan 2006 - Jan 2007

    Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
    - Administration des bases de données Etudes, et de pré-production.
    - Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
    - Support au développement (optimisation requête, validation des scripts).
    - Rédaction des documents d’installation et d’exploitation.

    Environnement : Oracle 9i/10g, PL/SQL, Unix, .NET, C#.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Expert hbase, Missions Expert hbase, Expert hbase freelance

Les nouvelles missions d'Expert hbase

Développeur Datastage px

SQL SERVER DATASTAGE PYTHON SQL
ASAP
Paris
6 mois
Voir la mission

Développeur cognos sur paris

SQL SERVER PYTHON BIG DATA SQL
ASAP
Paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Expert Hadoop (Cloudera CDP)

LINUX SHELL UNIX PYTHON AGILE ANSIBLE
ASAP
92
12 mois
Voir la mission

Administrateur DataOps

BIG DATA LINUX
ASAP
79 - Niort
3 mois
Voir la mission

Administrateur OPS Data/IA

LINUX APACHE HADOOP Cloudera TALEND
ASAP
79 - Niort
3 mois
Voir la mission

Data Engineer Datastage H/F

SQL DATASTAGE PX JIRA Microsoft Power BI
ASAP
69 - LYON
12 mois
Voir la mission

Développeur et administrateur Big Data

SQL APACHE HADOOP APACHE SPARK Cloudera PYSPARK
ASAP
69 - LYON
12 mois
Voir la mission

Data Engineer

APACHE SPARK APACHE KAFKA APACHE HADOOP
ASAP
56 - Vannes
3 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

APACHE HADOOP APACHE SPARK JAVA
ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Expert hbase disponibles

CV Développeur JAVA et Data
Jeremy

Développeur JAVA et Data

  • TOURS
JAVA SQL POSTGRESQL APACHE KAFKA BIG DATA
CV Architecte d'entreprise
Luc Bertrand

Architecte d'entreprise

  • SANTES
VMWARE BI UNIX LINUX SQL SERVER C++ SECURITE LDAP IAM BIG DATA
Disponible
CV Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Maher

Consultant Expert Talend (DI/ESB/MDM/BIGDATA)

  • Paris
PL SQL TALEND APACHE HADOOP TALEND MDM JDBC JAVA BIG DATA APACHE SPARK
Disponible
CV Expert performance
Mohammed

Expert performance

  • SAVIGNY-LE-TEMPLE
DYNATRACE JMETER UML JAVA J2EE DEVOPS JENKINS SONARQUBE SQL NeoLoad
Disponible
CV Consultante Technico Fonctionnelle
Hiba

Consultante Technico Fonctionnelle

  • ATHIS-MONS
AGILE SQL JIRA JAVA ORACLE EXCEL SWIFT SCRUM MONETIQUE
Disponible
CV Consultant APACHE HADOOP
Jaleed

Consultant APACHE HADOOP

  • NOGENT-SUR-OISE
BASH APACHE HADOOP Cloudera ANSIBLE REDHAT HDFS APACHE HBASE GIT HASHICORP TERRAFORM JAVA
Disponible
CV Architecte Solution Data
Copain Bertrand

Architecte Solution Data

  • NANTEUIL-LÈS-MEAUX
BIG DATA Cloudera Data science Cloud AWS Snowflake
Disponible
CV CDO /Head of data /Expert SAS/Expert Data science & Artificiel Intelligence
Saïd

CDO /Head of data /Expert SAS/Expert Data science & Artificiel Intelligence

  • PARIS
Data science BIG DATA SAS MOA
Disponible
CV PMO Big Data / AMOA
William

PMO Big Data / AMOA

  • PARIS
APACHE HADOOP SQL TALEND ITIL UNIX MAITRISE D OUVRAGE APACHE SPARK PYTHON GIT Kubernetes
Disponible
CV Développeur TALEND DI /Cloud / ESB
Youssef

Développeur TALEND DI /Cloud / ESB

  • MASSY
JAVA SQL SAP TALEND SALESFORCE MONGODB AZURE APACHE KAFKA TALEND DI BIGQUERY
Disponible
Je trouve mon freelance