CV/Mission d'Expert hbase freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Expert hbase habitant le Val-de-Marne (94)

  • Rôle : Architecte BIG DATA & Cloud

    DataValue Consulting
    Jan 2019 - aujourd'hui

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
    Réalisation :
    ⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7

    ⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques

    ⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
    ⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
    ⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.

    Environnement : Hortonworks, Cloudera, Spark/Scala, Hive, Impala, NIFI, PowerBi, Qlikview
  • Rôle : IT Manager & Architecte DATA & Cloud

    Dior, Loréal, Stime, BDF (chez Umanis)
    Jan 2018 - Jan 2019

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
    Réalisation :
    ⦁ Accompagnement en choix d’architecture.
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
    ⦁ Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Recrutement : entretiens techniques

    Environnement : Hortonworks, Spark/Scala, Hive, Hbase, PowerBI
  • Rôle : Architecte BI / BIG DATA

    Natixis
    Jan 2018 - Jan 2018

    Synthèse : Audit d’une plateforme Big Data
    Réalisation :
    ⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
    ⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
    ⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive

    Environnement : Oracle, Cassandra, Spark, Play, Kafka, REST proxy, Avro, Git
  • Rôle : Architecte BIG DATA & Cloud

    SEENERGI / ELEVAGE
    Jan 2018 - Jan 2018

    Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
    Réalisation :
    ⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
    ⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
    ⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
    ⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
    ⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
    ⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
    ⦁ Rédaction des documents d'exploitation et des bonnes pratiques

    Environnement : Microsoft Azure, PowerBI, HDFS, Kerberos, Ranger
  • Rôle : Architecte BIG DATA & CLOUD

    AVELTYS / IMMOBILIER
    Jan 2018 - Jan 2018

    Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
    Réalisation :
    ⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
    ⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
    ⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
    ⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
    ⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.

    Environnement : Azure, Kafka, Spark Streaming, NodeJS, Cosmos DB, PowerBI
  • Rôle : Expert technique BIG DATA

    Société Générale
    Jan 2015 - Jan 2018

    Synthèse : Mise en place d’une architecture.
    Réalisation :
    ⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
    ⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
    ⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
    ⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng  Kafka  Spark  ElasticSearch  Kibana)
    ⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
    ⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
    ⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube

    Environnement : HortonWorks 2.6, Hunk 6.3.3, RStudio, Ranger, Ambari, ElasticSearch, Nagios, Ganglia, OpenLDAP, Oozie/Hue, Linux 7.2
  • Rôle : Administrateur SAP

    APRIL INTERNATIONAL EXPAT
    Jan 2015 - Jan 2015

    Synthèse : Mise en place d’un Cluster CRM.
    Réalisation :
    ⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
    ⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
    ⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
    ⦁ Supervision des machines de production (JVM, RAM, CPU)
    ⦁ Réorganisation physique des disques sous Linux
    ⦁ Rédaction des documents d’exploitation et des best practices

    Environnement : Oracle 11g, Linux, Cleva
  • Groupe ALLIANZ – LA DEFENSE (via IBM)N°1 Européen en Assurances
    Jan 2008 - Jan 2014

    Equipe IBM : Architecture et Support des Systèmes Ouverts
    - Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
    - Diagnostic et résolution des incidents sur les bases existantes.
    - Support deuxième et troisième niveau.
    - Tuning des bases de production (AWR, DB2TOP, scripts maison).
    - Optimisation des requêtes SQL et code PLSQL.
    - Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
    - Création et suivi des demandes de changements techniques.
    - Suivi et mise en production des livraisons BD sous VTOM et DataStage.
    - Administration du CRM Siebel et du progiciel Master-I.

    Environnement : AIX 6.1, ORACLE 11gR2, RMAN, DB2 8 et 9.5, Websphere, ETL DataStage VTOM 5.4, SIEBEL eBusiness Applications 7.7, MASTERI
  • SGAM (Société Générale Asset Management)
    Jan 2007 - Jan 2008

    Applications DREAMS & GESCO (Gestion des actifs et obligations)
    - Administration des différentes bases de données Oracle (développement, recette et production).
    - Tuning des bases (Statpack, AWR, scripts maison).
    - Audit et gestion des incidents.
    - Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
    - Support projet (optimisation requête, validation des procédures stockées).

    Environnement : Oracle 9i/10g, PL/SQL, Linux, Weblogic, Java.
  • BNPParibas (Credit Risk Management)
    Jan 2006 - Jan 2007

    Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
    - Administration des bases de données Etudes, et de pré-production.
    - Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
    - Support au développement (optimisation requête, validation des scripts).
    - Rédaction des documents d’installation et d’exploitation.

    Environnement : Oracle 9i/10g, PL/SQL, Unix, .NET, C#.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Expert hbase, Missions Expert hbase, Expert hbase freelance

Les nouvelles missions d'Expert hbase

Expert Big Data - Technologies Cloudera

PYTHON TALEND
ASAP
72 - LE MANS
36 mois
Voir la mission

Développeur Datastage px

SQL SERVER DATASTAGE PYTHON SQL
ASAP
Paris
6 mois
Voir la mission

Développeur cognos sur paris

SQL SERVER PYTHON BIG DATA SQL
ASAP
Paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Expert Hadoop (Cloudera CDP)

LINUX SHELL UNIX PYTHON AGILE ANSIBLE
ASAP
92
12 mois
Voir la mission

Expert Datahub

Cloudera LINUX APACHE HADOOP
ASAP
79 - Niort
3 mois
Voir la mission

Administrateur DataOps

BIG DATA LINUX
ASAP
79 - Niort
3 mois
Voir la mission

Administrateur OPS Data/IA

LINUX APACHE HADOOP Cloudera TALEND
ASAP
79 - Niort
3 mois
Voir la mission

Data Engineer Datastage H/F

SQL DATASTAGE PX JIRA Microsoft Power BI
ASAP
69 - LYON
12 mois
Voir la mission

Développeur et administrateur Big Data

SQL APACHE HADOOP APACHE SPARK Cloudera PYSPARK
ASAP
69 - LYON
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Expert hbase disponibles

CV Développeur JAVA et Data
Jeremy

Développeur JAVA et Data

  • TOURS
JAVA SQL POSTGRESQL APACHE KAFKA BIG DATA
Bientôt disponible
CV Consultant Oracle Postgres
Laurent

Consultant Oracle Postgres

  • PUISEAUX
POSTGRES ORACLE PL SQL KSH ORACLE RAC ORACLE DATAGUARD LINUX JAVA
Disponible
CV Architecte SQL PLUS
Abbes

Architecte SQL PLUS

  • CRETEIL
SQL PLUS DECISIONNEL DATASTAGE SERVER ORACLE 11G JAVASCRIPT K SHELL JSP INFORMATICA INFORMIX ODI
Disponible
CV Senior Data Engineer (3x AWS certified, 1x GCP certified)
Ahmed

Senior Data Engineer (3x AWS certified, 1x GCP certified)

  • VILLIERS-SUR-MARNE
PYSPARK SQL Cloud AWS HASHICORP TERRAFORM PYTHON Airflow APACHE HADOOP MONGODB DOCKER Google Cloud Platform
Disponible
CV Architecte & Chef de projet & Consultant Senior DATA / BI
Ahmed

Architecte & Chef de projet & Consultant Senior DATA / BI

  • ANTONY
INFORMATICA TALEND BI ORACLE BUSINESS INTELLIGENCE ENTERPRISE EDITION ORACLE BI TABLEAU SOFTWARE BUSINESS OBJECTS BUSINESS OBJECTS DATA INTEGRATOR MICROSOFT BI
Disponible
CV Data Scientist
Khalid

Data Scientist

  • TOULOUSE
PYTHON DATA SQL BIG DATA DATAVIZ BI APACHE HADOOP Cloud AWS Microsoft Power BI APACHE SPARK
Disponible
CV Développeur TALEND DI /Cloud
Youssef

Développeur TALEND DI /Cloud

  • PARIS
TALEND SQL SAP BIGQUERY SALESFORCE MONGODB AZURE APACHE KAFKA TALEND DI OpCon
Disponible
CV Architecte IPTV
Benjamin

Architecte IPTV

  • thiais
IPTV
Disponible
CV Ingénieur de développement SQL
Abdoul Malick

Ingénieur de développement SQL

  • NOISY-LE-GRAND
SQL SQL SERVER ORACLE STAMBIA
Disponible
CV Chef de projet DATA
Ahmed

Chef de projet DATA

  • villeneuve d'ascq
SAS POWER AMC PL SQL ODI MICROSOFT BI SAP BO SHELL UNIX DATASTAGE MICROSTRATEGY BIG DATA
Disponible
Je trouve mon freelance