CV/Mission de Consultant Hadoop freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Karim,
Consultant Hadoop habitant les Hauts-de-Seine (92)

  • Admin BigData DevOps

    BNP Parribas
    Jan 2020 - aujourd'hui

    Contexte : Build & automatisation de la plateforme hadoop HDP/CDP
    ❏ Evaluer la pertinence de l’utilisation de certaines technologies dans le contexte du client
    ❏ Réaliser des POCs (Proof Of Concept) permettant de :
    Valider la faisabilité, l’intégration et les performances de briques applicatives de(s)
    solutions(s) envisagée(s) par l’architecture technique pour répondre aux besoins
    spécifiques client
    ❏ Etudier et tester des nouvelles briques technologiques afin de valider leurs applications
    dans le contexte Big Data
    ❏ Être le référent technique pour une équipe de production
    ❏ Participer à la validation et à l’évolution de l’architecture technique de la plateforme
    ❏ Participer à la qualité des livraisons ainsi qu’à leur déploiement sur les environnements de
    production.
    ❏ Installation des nouveaux clusters Hadoop (HDP ou CDP)
    ❏ Automatisation d’installation via ansible
    ❏ Développement des scripts d’exploitation (shell, python)

  • Consultant admin hadoop BigData/DevOps

    Bouygues Construction
    Jan 2019 - aujourd'hui

    Contexte : Administration & exploitation de la plateforme hadoop Build/Run
    • BUILD :
    ❏ Architecture :
    - Contribution à l’élaboration des dossiers d’architecture
    ❏ Accompagnement des nouveaux clients sur la plateforme:
    - Respect des exigences de sécurité via des politiques dans RANGER & openldap
    - Respect des règles de la data gouvernance via ATLAS
    - Accompagnement dans le partage des ressources cluster via YARN
    ❏ Optimisation des ressources :
    - Définition et dimensionnement des queues YARN
    - Fine tuning du service Zeppelin
    ❏ Intégration :
    - Nouveaux composants dans la plateforme Big Data (Injection, Librairie python, etc.)
    - Formalisation de l’expression de besoin lié à la sécurité et à la gouvernance
    - Étude et validation de nouvelles fonctionnalités DevOps (Docker, DEV, PREPROD)
    - Préparation des mises en production (validation pré production, rédaction du mode
    opératoire)
    ❏ Supervision :
    - Identification des métriques les plus pertinents (Hortonworks, Kafka, Elasticsearch, Azure
    Virtual Machine, Azure Data Lake Store,Définition des seuils)
    - Intégration des métriques dans l’outil Centreon de la DSI
    ❏ Industrialisation :
    - Automatisation des sauvegardes : shell et crontab
    - Gestion des logs : rotate (log4j), purge (cron)
    - DevOps : déploiement des applications métiers : git, Ansible
    ❏ Agile :
    - Contribution à l’alimentation du backlog sous JIRA
    - Planification des users stories à embarquer dans chaque Sprint
    - Définition et estimation des users stories
    ● RUN :
    ❏ Support de production et 3 de Kafka, ELK , Hadoop et Azure
    ❏ Accompagnement des nouveaux utilisateurs : usage des outils, bonne pratique
    ❏ Réalisation des mises en production (communication, implémentation, compte rendu)
    ❏ Suivi de la consommation des ressources (anticipation de la scalabilité horizontal et
    vertical)
    ❏ Compte rendu mensuel : KPI, faits marquants, nouvelles fonctionnalités, nouveaux
    clients
    ❏ Rédaction des fiches de consigne
    ❏ Rédaction des gestes de MCO

  • Intégrateur référent Big Data

    Société Générale
    Jan 2018 - Jan 2019

    Contexte : Migration projet SG/ASSU IBM BigInsight vers HDP 2.6
    • Migration de la plateforme ASSU (BigInsight) vers HDP (Transfert de données, Bases Hive,
    Jobs de traitement batch & temp réel)
    • Déploiement des nouveaux projets (Création Arbo HDFS, Table Hive, Jobs Spark)
    • Développement des solutions automatisées pour remplacer les actes récurrents
    • Administration et monitoring du cluster (HDFS, Queues YARN)
    • Déploiement et paramétrage des composants métiers
    • Assurer la disponibilité et la performance des plateformes de production.
    • Mise en place de système de surveillance sur Nagios.
    • Industrialisation, optimisation des processus & documentation (DEVOPS)
    • Interventions sur les demandes de support techniques complexes N3
    • Définition des architectures dans le cadre des nouveaux projets

  • Formation Consultant Big Data

    Fitec
    Jan 2018 - Jan 2018

    Contexte : Réalisation d’une plate forme d’aide à la décision pour les promoteurs immobilier
    • Conception d’une plateforme basée sur des technologies Big Data (Hadoop, HDFS, NoSQL,
    Spark, Kafka …)
    • Installation et déploiement d’un cluster HortonWorks 2.6 sur AWS
    • Administration du cluster via Ambari
    • Installation d’un cluster MongoDB avec sharding et replica Set
    • Collecte et stockage de données (Scraping) dans un Datalake
    • Intégration des données (Talend)
    • Analyse, traitement de données (Spark) et visualisation (Tableau)

  • Chef de projet Applicatif

    Ekino
    Jan 2015 - Jan 2017

    Contexte : Support N2, N3 sur l'ensemble des applications Front, Back et Mobile du Groupe
    Renault (30 pays).
    • Gestion de projets liés aux besoins clients en production (Analyse, investigation et résolution
    des incidents).
    • Gestion des évolutions, rédaction des devis et suivi des correctifs.
    • Rédaction des spécifications fonctionnelles.
    • Rédaction du cahier de recette et exécution des de test de non régression.
    • Organisation et suivi du déploiement des releases en collaboration avec les équipes DEV.
    • Administration du backoffice (paramétrage, CMS, flux de données, WebServices).
    • Contrôle et suivi du projet (communication, reporting, remontée des alertes…).
    • Organisation des réunions hebdomadaire et présentation des KPI.
    • Organisation du plan de charge.
    • Formations des équipes support N1.
    • Mise à jour et validation de la documentation utilisateurs.

  • Consultant support IT

    Europcar International
    Jan 2014 - Jan 2015

    Contexte : Gestion d’un parc informatique de 600 utilisateurs.
    • Gestion des postes de travail (Windows, Mac, Linux).
    • Déploiement d’applications via GPO.
    • Traitement des incidents N2 (Windows, Mac OS, Office et Applications internes).
    • Gestion de l’Active Directory (Création de comptes, Modification, Droits d’accès).
    • Gestion de la messagerie & Google Apps (Gmail, Agenda, Drive).
    • Gestion des terminaux mobiles (Android, IOS).
    • Gestion des accès VPN via SafeNet.
    • Support utilisateurs VIP.

  • Ingénieur support applicatif

    Ingeniway
    Jan 2011 - Jan 2014

    Contexte : Intégration d’une application ERP pour nos clients.
    • Déploiement des produits ERP chez le client et suivi de mises à jour.
    • Traitement des incidents N2.
    • Formation client et garantir la bonne utilisation des outils.
    • Plans d'action destinés à améliorer la stabilité des solutions.
    • Test et validation des release avant la mise en production.
    • Reporting feedback clients et suivi de correction de bugs.
    • Rédaction des procédures interne.

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Consultant Hadoop, Missions Consultant Hadoop, Consultant Hadoop freelance, Consultant hadoop big data, Consultant hadoop hive, Consultant hadoop hbase, Consultant apache hadoop, Consultant hadoop hdfs, Consultant technique hadoop, Consultant hadoop zookeeper

Les nouvelles missions de Consultant Hadoop

Data Engineer HADOOP / PYSPARK

APACHE HADOOP PYSPARK APACHE HIVE
24/02/2025
94 - Charenton le Pont
12 mois
Voir la mission

Consultant SAS

TERADATA APACHE HADOOP SAS
ASAP
75 - Paris
3 mois
Voir la mission

Expert Big Data Hadoop

Cloudera TALEND
ASAP
72 - Le Mans
3 mois
Voir la mission

Expert Big Data - Technologies Cloudera

PYTHON TALEND
ASAP
72 - LE MANS
36 mois
Voir la mission

Intégrateur LLM

IMPROMPTU PYTHON Cloud AWS Amazon SageMaker LLM
ASAP
44 - NANTES
12 mois
Voir la mission

Expert Hadoop

APACHE HADOOP
ASAP
92 - NANTERRE
10 jours ouvrés
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

CONSULTANT SECOPS CLOUD CONFIRME

AZURE DOCKER Cloud AWS Google Cloud Platform Cybersécurité
ASAP
92 BAGNEUX
3 mois
Voir la mission

CONSULTANT DATAOPS CONFIRME

HASHICORP TERRAFORM AZURE ANSIBLE Cloud AWS Google Cloud Platform
ASAP
92 BAGNEUX
3 mois
Voir la mission

Architecte Train Data

ORACLE APACHE HADOOP SAFE
ASAP
92
18 mois
Voir la mission
Je trouve ma mission

Les profils de Consultant Hadoop ont postulé à :

Data engineer

SQL PYTHON AMAZON AWS APACHE SPARK
03/03/2025
91 - MASSY
3 mois
Voir la mission

Chef(fe) de projet ou Senior Business Analyst Data - collecte et intégration de données

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Développeur/DevSecOps IA

PYTHON APACHE SPARK DevSecOps SONARQUBE
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission

Formation IA - Fondamentaux

IA Éthique
02/06/2025
92 - LEVALLOIS-PERRET
5 jours ouvrés
Voir la mission

Data Engineer – Sciences de la Vie (H/F)

SQL APACHE HADOOP APACHE SPARK Cloud AWS
ASAP
69 - LYON
12 mois
Voir la mission

Chef de projet Data

CONFLUENCE Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
12 mois
Voir la mission

Business Analyst ( Business Object)

BUSINESS OBJECTS Cloud AWS
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur devops

PYTHON GIT DEVOPS DOCKER CI/CD
ASAP
75 - PARIS
34 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Consultant Hadoop disponibles

CV Architecte QLIKVIEW
Jules

Architecte QLIKVIEW

  • Montrouge
QLIKVIEW BUSINESS OBJECTS BIG DATA
CV Expert CyberSécurité
Djasra

Expert CyberSécurité

  • PARIS
PKI JAVA J2EE OPENTRUST BIG DATA SCRIPT SHELL PYTHON DEVOPS Kubernetes
CV Développeur JAVA et Data
Jeremy

Développeur JAVA et Data

  • TOURS
JAVA SQL POSTGRESQL APACHE KAFKA BIG DATA
Bientôt disponible
CV Architecte Applicatif ou Tech Lead Java
Evariste

Architecte Applicatif ou Tech Lead Java

  • PARIS
API RESTful Microservices DEVOPS GIT GITLAB DOCKER OAUTH JAVA Spring Boot Cloud AWS
Bientôt disponible
CV Consultant TALEND
Amine

Consultant TALEND

  • NANTES
TALEND DI SQL TABLEAU SOFTWARE BIGQUERY GOOGLE DATA STUDIO SALESFORCE
Bientôt disponible
CV Lead Data Scientist - Manager Data Science - 11 ans d’expérience
Romeo

Lead Data Scientist - Manager Data Science - 11 ans d’expérience

  • ISSY-LES-MOULINEAUX
BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA Dataiku Google Cloud Platform Snowflake Kubernetes DOCKER
Bientôt disponible
CV Architecte Data & Cloud | Azure / Databricks / Power BI
Tariq

Architecte Data & Cloud | Azure / Databricks / Power BI

  • PARIS
Microsoft Power BI BI MICROSOFT Azure Data Factory AZURE DATA Databricks Azure Synapse SQL Google Cloud Platform Cloud AWS
Bientôt disponible
CV Consultant Oracle Postgres
Laurent

Consultant Oracle Postgres

  • PUISEAUX
POSTGRES ORACLE PL SQL KSH ORACLE RAC ORACLE DATAGUARD LINUX JAVA
Bientôt disponible
CV Data engineer & analyst
Romain

Data engineer & analyst

  • Nantes
Microsoft Power BI BUSINESS OBJECTS VBA PYTHON Deep Learning SQL NoSQL Microsoft Azure Machine Learning
Bientôt disponible
CV Architecte Urbaniste - Cloud Big Data
Marc

Architecte Urbaniste - Cloud Big Data

  • Boulogne-Billancourt
Data lake ENTERPRISE ARCHITECT API RESTful Microservices APACHE KAFKA APACHE HADOOP Google Cloud Platform RabbitMQ TOGAF PROLOG
Bientôt disponible
Je trouve mon freelance