Missions Consultant Big Data : Trouvez votre futur poste en indépendant

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Hugo,
Consultant Big Data habitant les Hauts-de-Seine (92)

  • Consultant Big Data

    - Société Générale
    Jan 2019 - aujourd'hui

    ◦ Contexte : Au sein d’une équipe développant un outil interne (Basyliq) calculant
    plusieurs métriques financières, j’intègre une équipe socle de développeur dans le but
    de migrer celle-ci dans un datalake interne de la Société Générale.
    ◦ Développement d’un ordonnanceur customisé : Dans le but de répondre aux différentes problématiques d’ordonnancement de Basyliq, nous avons implémenté un
    ordonnanceur codé en Java Spring Boot. Les principales fonctionnalités sont en autres
    le déclenchement automatiques de différents traitements en fonction de diverses
    dépendances, la gestion de ressources, la copie et la compaction des données vers le
    lake et la coordination entre l’environnement datalake et l’environnement Legacy.
    ◦ Calcul de métriques : Calculer des métriques via Spark et le mettre à disposition sur
    Rafale, un outil de restitution interne de la Société Générale.
    ◦ Chaine de CI/CD commune : Chaque métrique suive un même schéma CI/CD. La
    chaine d’intégration se fait via Jenkins et le déploiement via Ansible.
    ◦ Environnement technique : Stack Hortonworks (HDP 2.6 kerberisé), Kafka, Nifi,
    Spring Boot, Openshift, Amazon S3, langages (Java, Scala, Python)

  • Dataquantic, Consultant Big Data

    Entreprises
    Jan 2019 - aujourd'hui

  • Consultant Big Data

    Groupe Renault / Nissan
    Jan 2017 - Jan 2019

    ◦ Contexte : Dans l’équipe Datalake composée d’une vingtaine de personnes, j’interviens sur des sujets Build et Run dans le domaine Big Data, équipe transverse aux
    différentes direction du groupe Renault – Nissan.
    ◦ Ingestion : Ingestion de données d’après-ventes de pièces détachées et d’usines dans
    le cadre de la détection de pièces obsolètes.
    ◦ Activité en développement : Recueil des besoins métiers, aide à l’optimisation de
    l’ETL Datalake loader, monitoring via Ambari, Grafana, Yarn, installation d’outils
    (JupyterHub, Knowledge Repository, etc.)
    ◦ Support N-2 : Recueil des besoins et traitement de tickets Jira, résolution de problème
    techniques utilisateurs (équipes de développement ou utilisateurs finaux notamment
    sur Hive, Spark, Oozie, Yarn), audit et gestion des accès, accompagnement à la
    1/2
    migration de données, documentation Confluence en anglais.

    ◦ Environnement technique : Stack Hortonworks (HDP 2.5 et 2.6 kerberisé), Kafka, Elasticsearch (ECE), Hue, Flink, Jenkins, Maven, Git, Jira, Confluence
  • Développeur

    FM Logistics
    Jan 2017 - Jan 2017

    ◦ Synthèse : Développer deux solutions dans le cadre de deux proof of concepts qui
    sont d’optimiser les transports de palettes et de visualiser un transport de flux.
    ◦ Tâches : Développement effectuée en Python 3, visualisation effectuée en R avec le
    librairie Shiny, installation d’un shiny server sur un serveur distants.

    ◦ Environnement technique : Python, R / Shiny, Méthode agile, Jira
  • Data analyst

    SFR
    Jan 2017 - Jan 2017

    ◦ Synthèse : Faciliter un plan de migration d’offre clientes par le biais d’un framework
    de simulation.
    ◦ Tâches : Développement de la simulation en R, viusualisation via R Shiny, déploiement de la visualisation sur Shiny Server, ordonnencement via la librairie Python
    Airflow.

    ◦ Environnement technique : Python (airflow), R / Shiny, Spark
  • Consultant Big Data

    Onepoint,
    Jan 2016 - Jan 2019

  • Stagiare R&D -

    Business&Decision
    Jan 2016 - Jan 2016

    ◦ Synthèse : Etude sur le "matching flou" et mise en places d’un moteur de recommandation sur des produits cosmétiques
    ◦ Tâche : Rédaction d’un mémoire de recherche sur le croisement de données probabilistes à partir d’articles de recherches, développement Spark d’un système de
    recommandation basé sur du filtrage collabaratif.

    ◦ Environnement technique : Scala 2.10, Spark 1.6.2
  • Stagiaire R&D en Big Data

    Business&Decision
    Jan 2016 - Jan 2016

Voir le profil complet de ce freelance

Missions similaires parfois recherchées

Consultant fonctionnel big data

Nos dernières missions de Consultant Big Data à pourvoir

Consultant Big data Hadoop

APACHE SCRIPT SHELL APACHE HADOOP
ASAP
94 - FONTENAY-SOUS-BOIS
6 mois
Voir la mission

Consultant BIG DATA

HORTONWORKS APACHE SPARK APACHE KAFKA
ASAP
37 et télétravail
3 mois
Voir la mission

Consultant Big Data

BIG DATA APACHE SPARK SCALA APACHE HIVE
ASAP
44 - Nantes / Remote
3 mois
Voir la mission

Consultant BIG DATA

Cloudera APACHE SPARK PYTHON APACHE KAFKA Dataiku
ASAP
33 - Bordeaux
3 mois
Voir la mission

Consultant Big Data

APACHE SPARK APACHE HIVE PYTHON HDFS
ASAP
31 - Toulouse
3 mois
Voir la mission

Consultant Big Data

APACHE HADOOP TALEND BIG DATA
ASAP
79 - Niort
3 mois
Voir la mission

Consultant BIG DATA

BIG DATA Cloudera APACHE HADOOP HORTONWORKS
ASAP
29 - Brest
3 mois
Voir la mission

Consultant Big Data

APACHE HADOOP APACHE HIVE HORTONWORKS
ASAP
33 - Bordeaux
3 mois
Voir la mission

Admin HADOOP / Consultant BIG DATA

BIG DATA APACHE HADOOP ELASTICSEARCH
ASAP
Guyancourt
3 mois
Voir la mission

Consultant BIG DATA

BIG DATA APACHE HADOOP Cloudera HORTONWORKS
ASAP
75013 - PARIS
12 mois
Voir la mission
Je trouve ma mission