CV/Mission de Formateur hadoop freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Slim,
Formateur hadoop habitant le Val-d'Oise (95)

  • GCP Landing Zone
    Jan 2022 - Jan 2022

    GCP Security auditor | BPCE/Natixis (France/Suresnes)
    Revu de sécurité de la Landing Zone GCP et propositions d’améliorations.

  • Copyright, Slim ********,
    2022 - aujourd'hui

    Vous ne pouvez pas modifier le contenu de ce document ni le re-utiliser (même en partie) sans une autorisation expresse et écrite de la part de 'Slim ********'. Vous ne pouvez également pas distribuer
    ce CV à d'autres parties sans une autorisation expresse et écrite de la part de 'Slim ********.

  • Architecte Cloud/Data- Laboratoires Servier (France/Suresnes)

    Servier Data Platform
    Jan 2020 - Jan 2022

    Mise en place de la plateforme Data et son infrastructure basée sur GCP:
    • Definition de l’architecture de la plateforme
    • Mise en place des composantes transverses (Réseaux, Hiérarchie, IAM, CICD, GKE, Gouvernance,…)
    • Mise a disposition des environnements des Business Units
    • Sécurisation de la plateforme pour être habilité a contenir des données de santé.
    • Assistance et aide a la montée en compétences des Features Teams des Business Units.

    • Environnement technique : Google Cloud Platform, Kubernetes (GKE), Terraform, Kustomize, Python
  • Architecte Data/ML/Cloud

    Usage-Based-Maintenance - renault (France/Paris)
    Jan 2018 - Jan 2020

    Le projet Usage Based Maintenance a pour objectif de tirer profit des données d’usage (ou de conduite) issues
    du système embarqué des véhicules pour mieux gérer leurs maintenance.
    Je suis intervenu dans la phase POC qui a précédé le projet pour valider l’approche ainsi que la pertinence des
    données.
    Ensuite et pour l’industrialisation des processus j’ai défini l’architecture, mis en place l’infrastructure de
    collecte et traitement des données et participé a l’implémentation des pipelines de machine learning.

    • Environnement technique : Google Cloud Platform, Kubernetes, TensorFlow eXtended, Docker, Spark,
  • Architecte Data - ******** (France/Paris 18e)

    Terraform, Python, Scala, Golang, Kubeflow, APIs. sl-datahub
    Jan 2017 - Jan 2018

    Le projet consistait essentiellement à la création d'une plateforme Data:
    - initialisation de l'infrastructure adéquate.
    - sensibilisation a l'état d'esprit Data et aux bonnes pratiques associées en général (DevOps, CI,...)
    - Implémentation des premieres Data Pipeline qui exploitent la donnée du site en y appliquant les algorithmes
    de Data Science et les mettre a disposition (exposition)
    - Création d'un premier noyau de l'équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install,
    gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation des algorithmes développés par les Data Scientists aussi bien sur
    leur implémentation que sur la Data Pipeline dans la quelle ils s’intègrent: ingestion de données, nettoyage/
    preparation des données, training, pré-calcul et enfin exposition des API.
    La deuxième phase de ma mission fut de migrer le projet d’une infrastructure on premise vers le cloud Amazon
    Web Services.

    • Environnement technique : Hortonworks Data Platform, spark, scala, airflow, grafana, influxdb, nginx, Ansible, Amazon Web Services, akka, rocksdb, python, terraform.
  • • Rôle : Architecte Data

    sl-datahub******** (France/Paris 18e)
    Jan 2017 - aujourd'hui

    Le projet consiste essentiellement à la mise en place d’un datalake.
    Je suis intervenu en tant architecte de l’équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install, gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation de l’algorithme de recommandation défini par l’équipe de datascientists: ingestion de données, nettoyage/preparation des données, training, pré-calcul et enfin exposition des API.
    Actuellement je travaille sur la migration du cluster “on-premises” sur le cloud Amazon.

    • Environnement technique : Hortonworks Data Platform, play, airflow, grafana, influxdb, nginx, Ansible, Amazon Web Services, scala, python, terraform.
  • • Rôle : Expert Kafka

    Vision360 Generali (France/Saint-Denis)
    Jan 2017 - Jan 2017

    Mise place d’une plateforme offrant une vision 360 du client.
    J’interviens en tant que expert Kafka et stream processing.

    Environnement technique : Confluent Platform ( Kafka, Kafka-Streams, Kafka-Connect, Schema-Registry), Avro.
  • • Rôle : Lead Data Architect

    Phenix Carrefour (France/Massy - Evry)
    Jan 2015 - Jan 2017

    Phenix est une plate-forme distribuée d’ingestion, de préparation, d’analyse et d’exposition de données opérationnelles (ventes, stocks, logistique,..) en temps réel (ou commercial);
    Je suis intervenu dés la phase de définition de la plateforme et défini en grande partie les choix architecturaux et technologiques aussi bien en terme de frameworks et backends, que de méthodes et outils de développement ou encore sur les aspects ‘ops’ (provisionning, deploiement, monitoring,…).
    L’architecture que j’ai définie consistait en une plateforme avec deux composantes principale:
    - une composante “on-line” qui était responsable premièrement de la collecte de données depuis les magasins et les backoffices de stock ainsi que les données de référentiels des bases centrales; ensuite une infrastructure de traitement de données en temps réel basée sur kafka,mesos et spark-streaming pour effectuer la normalisation, les agrégations et l’enregistrement des résultats soit dans Cassandra, soit dans Elasticsearch ou parfois les deux. En fin une couche d’API en micro-services expose ces résultat aux applications clientes.
    - une composante off-line, qui se rapproche d’un datalake classique contenant toutes les données ingérée dans les topic kafka, les référentiels et quelques datasets d’enrichissement et qui servait a faire des traitement en batch pour sortir des métriques et des agrégations avec une profondeur, une précision et richesse plus importante que celles fournie par la composante online.
    Outre les réalisations et les choix technique j’ai insisté et travaillé sur les bonnes pratique de développement (agilité, TDD, CI,…) et l’industrialisation de la solution (ansible, docker, rundeck) ainsi que les process de recrutement (exercices de code, entretien face a toute l’équipe,…) pour constitué une équipe de haut niveau.

    • Environnement technique : Kafka, Spark (Streaming), Mesos, Docker, Cassandra, Hadoop, Elasticsearch, Micro-Services, NRT, ansible, …
  • • Rôle : Big Data Senior Developer

    Eureka Canal+ (France/Issy les Moulineaux)
    Jan 2014 - Jan 2015

    Eureka est un moteur de recommendation pour les videos “live” et “à la demande”.
    Je suis intervenu pour proposer et implementer une solution qui permet d’exploiter des algorithmes de recommandations développés par des équipes tierces (marketing et data-scientist).
    La solution se base sur un cluster hadoop pour la préparation des données et le training des algorithmes; un cluster Elasticsearch et une base Redis comme backends et quelques micro-services (REST) qui exposent les résultats.

    • Environnement technique : Akka, Spray.io, Elasticsearch, Scala, Java, Redis, Hadoop
  • • Rôle : Domain Expert, Architecte.

    Data Innovation Lab AXA Technology Services (France/La Defense)
    Jan 2014 - Jan 2014

    Le Data Innovation Lab est une initiative qui vise à promouvoir l'exploitation de la donnée et sa valorisation au sein des entités de AXA.
    J'interviens en tant que “Expert Hadoop” pour la mise en place d'un cluster Hadoop “As A Service” pour les entités.
    J’ai essentiellement conseillé sur les bonnes pratiques et les pièges à éviter pour la mise en place d’un tel projet. J’ai aussi accompagné l’équipe d’exploitation du cluster, et participer aux ateliers d’architecture pour les différents use-cases en développement.

    • Environnement technique : Hadoop, Multi-tenancy, YARN, Kerberos, Sentry, Data governance, Data privacy.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Formateur hadoop, Missions Formateur hadoop, Formateur hadoop freelance

Les nouvelles missions de Formateur hadoop

Animer formation hadoop - écosystème & ses architectures

DATA
ASAP
Télétravail
1 mois
Voir la mission

Formateur HADOOP

ASAP
06 - Nice
3 jours ouvrés
Voir la mission
Je trouve ma mission

Les profils de Formateur hadoop ont postulé à :

Formateur BIG DATA

BIG DATA Data science
ASAP
Télétravail
3 mois
Voir la mission

CHIEF DATA OFFICER

DATA BIG DATA
ASAP
Télétravail
6 mois
Voir la mission

Formateur Big Data

BIG DATA
A définir
75011
30 jours ouvrés
Voir la mission

Formateurs BIG DATA

BIG DATA
ASAP
75 - Paris
3 jours ouvrés
Voir la mission

Consultant formateur BIG DATA

BIG DATA
ASAP
75 - paris
5 jours ouvrés
Voir la mission
Je trouve ma mission

Les derniers CV de Formateur hadoop disponibles

CV System & Virtualization engineer
Gilles

System & Virtualization engineer

  • NANTES
LINUX VMWARE UNIX EMC WINDOWS NETAPP MYSQL CISCO EXCHANGE BIG DATA
CV Coach et consultante agile, agilité à l'échelle
Carole

Coach et consultante agile, agilité à l'échelle

  • COLOMBES
AGILE SAFE SCRUM KANBAN MS OFFICE Design Thinking JIRA CONFLUENCE
CV Architecte Applicatif ou Tech Lead Java
Evariste

Architecte Applicatif ou Tech Lead Java

  • PARIS
API RESTful Microservices DEVOPS GIT GITLAB DOCKER OAUTH JAVA Spring Boot Cloud AWS
Bientôt disponible
CV Consultant Formateur Change Managment IT Mobilite Réseaux et Sécurité Informatique
Mehdi

Consultant Formateur Change Managment IT Mobilite Réseaux et Sécurité Informatique

  • MONTREUIL
IOT PMO ARCGIS MICROSOFT TEAMS iOS ANDROID Cybersécurité DELPHI APACHE SCRUM
Disponible
CV Directeur IT / Directeur & Chef de projet / Manager
Christian

Directeur IT / Directeur & Chef de projet / Manager

  • PARIS
AGILE SQL PROJECT MANAGEMENT OFFICE PYTHON SCRUM JIRA DEVOPS JAVA .NET ITIL
Disponible
CV Architecte solution data
Naoufal

Architecte solution data

  • Meudon
Cloud AWS AZURE Google Cloud Platform MDM BI Cloudera TOGAF BIG DATA SAFE ARCHIMATE
Disponible
CV Ingénieur de production - DevOps
Mamadou Lamine

Ingénieur de production - DevOps

  • PARIS
LINUX BIG DATA DEVOPS Cloudera REDHAT Kubernetes OPEN SOURCE WEBSPHERE REDHAT OPENSHIFT DOCKER
Disponible
CV Architecte Solutions
Epo

Architecte Solutions

  • Poissy
JAVA UNIX J2EE DESIGN PATTERNS TOGAF ARCHIMATE SAFE DDD
Disponible
CV Administrateur Splunk
Mohamed

Administrateur Splunk

  • ANTONY
BUSINESS OBJECTS BI SPLUNK SAP BI SHELL UNIX PYTHON BIG DATA ELK Cybersécurité Microsoft Power BI
Disponible
CV Data Scientist PYTHON
Michel Bertrand

Data Scientist PYTHON

  • MALO-LES-BAINS
PYTHON DATA Azure Data Factory Microsoft Azure Machine Learning SQL Microsoft Power BI Data science DOCKER GIT KubeFlow Pipelines
Disponible
Je trouve mon freelance