CV/Mission APACHE HBASE freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Toky,
freelance APACHE HBASE résidant dans Paris (75)

  • Data / Cloud Engineer

    Département ITIM, SOCLE Service ARCHITECTURE BIG DATA
    Jan 2019 - Jan 2020

    Migration en mode hybride de l’infrastructure physique big data vers le cloud
    public
     Définition du périmètre des services AWS nécessaire pour cette migration
     Définition du catalogue de service pour les différents cas d’usage sur la plateforme :
    Traitement au fil de l’eau
    Traitement par lot
    Traitement nécessitant un calcul d’analyse
    Stockage des données
     Définitions de l’architecture d’accès au cloud public depuis les datacenter SG
     Rédactions des différents types de profil d’accès aux infrastructures du cloud public
    ainsi que leurs périmètres d’actions ainsi que leurs droits (transformer cette
    rédaction en un ensemble d’AWS config rules )
     Début de la mise en place des profils et des droits grâce aux outils ‘accès et de
    gestion de droit fournit par le cloud public
     Les Technologies :
    Env AWS gestion des droits : IAM, security Groups, NACL, aws Config …
    Env AWS stockage : S3, RDS, DynamoDB, EMR
    Env AWS analytics : Sagemaker
    Env AWS Streamning : Kinesis data stream
    Migration en mode hybride de l’infrastructure physique big data vers le cloud
    public
     Définition du périmètre des services AWS nécessaire pour cette migration
     Définition du catalogue de service pour les différents cas d’usage sur la plateforme :
    Traitement au fil de l’eau
    Traitement par lot
    Traitement nécessitant un calcul d’analyse
    Stockage des données
     Définitions de l’architecture d’accès au cloud public depuis les datacenter SG
     Rédactions des différents types de profil d’accès aux infrastructures du cloud public
    ainsi que leurs périmètres d’actions ainsi que leurs droits (transformer cette
    rédaction en un ensemble d’AWS config rules )
     Début de la mise en place des profils et des droits grâce aux outils ‘accès et de
    gestion de droit fournit par le cloud public

  • Data / Cloud Engineer

    SOCIETE GENERALE (Département ITIM, SOCLE Service ARCHITECTURE BIG DATA
    Jan 2016 - Jan 2020

    ❑ Migration en mode hybride de l’infrastructure physique big data vers le cloud
    public
    ▪ Définition du périmètre des services AWS nécessaire pour cette migration
    ▪ Définition du catalogue de service pour les différents cas d’usage sur la plateforme :
    ➢ Traitement au fil de l’eau
    ➢ Traitement par lot
    ➢ Traitement nécessitant un calcul d’analyse
    ➢ Stockage des données
    ▪ Définitions de l’architecture d’accès au cloud public depuis les datacenter SG
    ▪ Rédactions des différents types de profil d’accès aux infrastructures du cloud public
    ainsi que leurs périmètres d’actions ainsi que leurs droits (transformer cette rédaction
    en un ensemble d’AWS config rules )
    Début de la mise en place des profils et des droits grâce aux outils ‘accès et de gestion
    de droit fournit par le cloud public

    Cas d’usage sur les bases de données NoSQL avec une problématique distribution
    de la donnée au fil de l’eau
    ▪ Rencontre avec les éditeurs pour la présentation des solutions
    POC des produits dans le cadre d’un projet : Projet vision 360 de la banque de détail
    France. Le projet consiste à améliorer la connaissance client et la mise en place d’une
    vue unique du client aux yeux des conseillers bancaires.
    ▪ Techniquement le projet consistait à acheminer les activités du client ( les logs ) sur
    les différents portails de la banque au fil de l’eau afin qu’ils soient analysés pour être
    restitués mais aussi archivés
    ▪ Les Technologies:
    NoSQL: MongoDB, Couchebase, Cassandra, Apache Hbase
    Env Hadoop: Apache Kafka, Apache Nifi, MiNifi, HDFS
    System: syslogNG, linux, Ansible

    Surveillance et prévision des défaillances systèmes sur lequel repose les
    applications bancaires
    ▪ Mise en place d’une plate-forme de surveillance pouvant accueillir une certaine
    quantité d’événements journaliers (600 GI/jour)
    ▪ Transformation de ces événements
    ▪ Restitution à l’aide de dashboard
    ▪ Analyse des données afin de construire un modèle mathématique pour détecter à
    l’avance des signes d’une défaillance système.
    ▪ Les Technologies:
    Env Hadoop: Apache Kafka, HDFS, Apache Spark
    Open source: Elasticsearch, logstach, Kibana
    System: linux

    Mise en place d’une infrastructure dédiée à la data science
    ▪ Cette infrastructure a pour objectif de fournir au data scientist tout un écosystème pour
    construire, tester, mettre en production puis surveiller leurs modèles afin de les
    améliorer.
    ▪ Les problématiques d’accès et de sécurité de la donnée ont été un vrai défi sur ce projet
    Une autre problématique était aussi à prendre en considération celui du partage des
    ressources (RAM/CPU) car étant une plate-forme mutualisée pour plusieurs data
    scientist il fallait partager les ressources selon les besoins de chacun.
    ▪ Les Technologies :
    Env Hadoop: YARN, Apache Spark
    Open source: Rstudio, Jupyter, Pyhon, Python virtual Env
    System: linux

    Automatisation de la création d’environnement Hadoop éphémère
    ▪ Ce projet consiste à créer une offre autour de la création d’environnement de
    développement éphémère Hadoop aux équipes métiers afin qu’ils puissent se
    familiariser avec l’écosystéme Hadoop.
    ▪ Techniquement parlant ce projet consiste à automatiser les tâches de création de
    l’environnement open source.
    ▪ Les Technologies:
    Env Hadoop: Apache Ambari
    Open source: kerberos, ldap, Python
    System: linux, Ansible, Ansible Tower

    Data gouvernance, mise en place de catalogue de métadonnée
    ▪ Appel d’offre pour trouver la solution, rencontre avec les éditeurs
    ▪ Lancement des POC avec un suivi des éditeurs retenus dans l’appel d’offre.
    ▪ Mise en place de la solution en production
    ▪ Les Technologies:
    Env Hadoop: HDFS, HIVE
    Solutions éditeur: Waterline data, Zeenea, Colibra, ABinitio
    Open source: kerberos, ldap
    System: linux, Ansible

    Les Technologies : Env AWS gestion des droits : IAM, security Groups, NACL, aws Config… Env AWS stockage : S3, RDS, DynamoDB, EMR Env AWS analytics : Sagemaker Env AWS Streamning : Kinesis data stream
Voir le profil complet de ce freelance

Expertises proches de APACHE HBASE quelquefois demandées

CV APACHE HBASE, Missions APACHE HBASE

Les derniers freelances APACHE HBASE

CV Data Engineer Spark & Talend
Amokrane

Data Engineer Spark & Talend

  • BOULOGNE-BILLANCOURT
TALEND SQL Cloud AWS SQL SERVER Databricks PYSPARK PYTHON ORACLE Microsoft Power BI SAP
Disponible
CV Consultant Data (Talend | Certified MuleSoft)
Mehdi

Consultant Data (Talend | Certified MuleSoft)

  • MARSEILLE
TALEND JAVA SQL WINDOWS GIT ORACLE MULESOFT ANYPOINT PLATFORM AGILE SQL SERVER JENKINS
CV Senior Data Engineer - Cloud
Oussama

Senior Data Engineer - Cloud

  • PARIS
Cloud AWS Google Cloud Platform AZURE Azure Data Factory Apache NiFi APACHE SPARK Kafka JAVA SCALA PYTHON
CV Architecte Technique Data
Ben Afia

Architecte Technique Data

  • MASSY
APACHE HADOOP APACHE HBASE APACHE KAFKA KERBEROS ACTIVE DIRECTORY ELASTICSEARCH ORACLE Kubernetes
Disponible
CV Consultant technique plateforme Big Data
Falaye

Consultant technique plateforme Big Data

  • HERBLAY
Cloudera APACHE HADOOP APACHE SPARK APACHE HIVE ATLAS KERBEROS ANSIBLE GIT APACHE HBASE COUCHBASE
CV Ingénieur de développement J2EE
Naoufal

Ingénieur de développement J2EE

  • BOISSY-SAINT-LÉGER
JAVA SQL ORACLE SOAP J2EE APACHE SPARK APACHE HADOOP APACHE KAFKA APACHE HBASE REST
CV Tech Lead -Senior Data Engineer
Hichem

Tech Lead -Senior Data Engineer

  • PALAISEAU
TALEND SQL JAVA SCALA APACHE SPARK APACHE HBASE APACHE HIVE JENKINS APACHE KAFKA ELK
CV Ingénieur de développement PYTHON
Hamza

Ingénieur de développement PYTHON

  • VINCENNES
PYTHON SQL PYSPARK APACHE HBASE Cloud AWS APACHE HIVE
CV Data Engineer
Anani

Data Engineer

  • TOULOUSE
PYTHON SQL NoSQL PYSPARK APACHE HADOOP DOCKER Kubernetes JAVA APACHE HBASE
CV Scrum Master SAFE
Mourad

Scrum Master SAFE

  • TOULOUSE
SAFE SCRUM KANBAN
Je trouve mon freelance APACHE HBASE

Les nouvelles missions APACHE HBASE

Formateur en Big Data Avancée / AirFlow

Kafka NoSQL APACHE HBASE APACHE HIVE
ASAP
63
3 mois
Voir la mission

Data ingénieur

APACHE HADOOP APACHE HBASE HDFS APACHE SPARK APACHE KAFKA
ASAP
grand duché du luxembourg
12 mois
Voir la mission

Développeur/Ingénieur BIG DATA

SCALA APACHE SPARK APACHE KAFKA ELASTICSEARCH APACHE HBASE
ASAP
75 - Paris
3 mois
Voir la mission

Architecte BIG DATA/HORTONWORKS

BIG DATA HORTONWORKS APACHE HADOOP APACHE HBASE
ASAP
27 - Evreux
110 jours ouvrés
Voir la mission

Auditeur HBASE / HADOOP

APACHE HBASE APACHE HADOOP
ASAP
59 - Lille
A définir
Voir la mission

Administrateur Hbase

APACHE HBASE APACHE HADOOP
ASAP
38 - Grenoble
4 mois
Voir la mission

Consultant HADOOP

HTML PHP ORACLE APACHE HIVE APACHE HBASE
ASAP
Paris
3 mois
Voir la mission

Expert HADOOP

APACHE HADOOP APACHE HBASE HDFS APACHE SOLR
ASAP
33 - Bordeaux
15 jours ouvrés
Voir la mission
Je trouve ma mission APACHE HBASE