CV/Mission YARN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des emplois de Massipssa,
freelance YARN habitant la Seine-Saint-Denis (93)

  • TechLeadDataEngineer

    Société Générale -
    Jan 2021 - aujourd'hui

    CONTEXTE: Mise en place des contrôles pour la surveillance des marchés financiers (Market Abuse
    Surveillance)
     Mise en place et validation de solutionstechniques
     Développement de pipelines de collecter, ingestion et transformation des données de l’ensemble des
    bourses mondiales des traders de la Société Générale
     Implémentation de contrôles financiers(Front Running, Insider, …) en PySpark
     Migration de contrôles depuis Hadoop on-premise vers cloud Azure (HDinsight, Azure Storage, …)
     Migration d’Airflow 1.1.9 vers Airflow 2.1.3
     Développement d’un outil de monitoring de l’ensemble des applications Spark via l’API Yarn, la Stack
    EKL (Elasticsearch, Kibana, …) et Alerta
     Automatisation de la création et la destruction des clusters HDInsight via Airflow
     Amélioration et développement de pipelines de CI/CD avec Jenkins et Ansible
     Code review et validation des Pull Request de toute l’équipe de développement
     Veiller au bon fonctionnement de l’ensemble des parties techniques de la Platform
     Accompagner et faire monter en compétences des Data Engineer Junior
     Passation des entretiens techniques et validation des profils
     Security Champion de l’équipe, un rôle permettant d’attribuer les droits selon les profils, gérer les
    accès dans Azure avec Azure AD et Azure Keyvault, …

    ENVIRONNEMENT Azure, Docker, Kubernetes, Ansible, Hadoop (Yarn, HDFS, Hive, Oozie), Spark 2. 4 / 3.1, Apache Airflow, Apache Livy, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty, IntelliJ, PyCharm
  • - DataEngineer

    BNPParibas
    Jan 2020 - Jan 2021

    CONTEXTE: Conception et implémentation de l'ensemble des parties d'un Datahub
    Architecture
     Conception de la zone DataLake dans HDFS
     Conception d'une architecture d'intégration de flux de données en tempsréel
    Développement
     Développement d'un pipeline pour l'intégration de différents dans Hadoop (HDFS, Hive, ...)
     Mise en place de module du monitoring des Workspaces dans Datahub
     Collecte, indexation et stockage deslogs de l'ensemble des modules du Datahub dans Elasticsearch
     Evolution d'un ETL Spark pour la récupération et transformation des flux métier contenu dans des
    fichiers CSV
     Développement d'un module Python pourl'alimentation du Tableau Server
    Tests et livraisons(CI/CD)
     Mise en place d'un pipeline CI avec Azure Devops, Jenkins et SonarQube
     Automatisation du déploiement des livrables avec Ansible
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT Azure, Ansible, Hadoop (Yarn, HDFS, HBase, Hive...), Hortonwork 2.6, Spark, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty
  • DataEngineer

    PSA -
    Jan 2019 - Jan 2020

    CONTEXTE Conception et mise en place d'un Datalake
    Architecture
     Définir les architectures techniques des projets Data et leurs Templates
     Conception d'architectures microservice pour la mise en place de PoC (Proof of Concept)
     Définition des modèles de développement et de livraison avec Docker
    Data Security et gouvernance
     Sécurisation d’accès aux ressources du DataLake (HDFS, Kafka, Hive,Hbase) via Apache Ranger
     Synchronisation des ressources du cluster entre Apache Ranger et Atlas avec une API Java
    Streaming & Batch Processing
     Développement d'un outil ClickStream pour la collecte des erreurs de l'application ServiceBox PSA
     Développement d'un outil permettant aux clients de PSA de s'opposer à la sauvegarde des données
    personnelles (droit à l'opposition) protégées par la loi RGPD
     Inspiration de différentes sources de données, traitement et stockage (Spark, Scala, parquet, ...)
     Implémentation de pipeline d'ingestion de tables Exatadata vers Elasticsearch
    Tests et livraisons(CI/CD)
     Développement de tests TDD / BDD
     Analyse et inspection de la qualité du code avec SonarQube
     Automatisation du processus de déploiement depuis Git jusqu'aux serveurs de production avec
    TeamCity
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT AWS, Hortonwork 2.6, Hadoop 2 (Yarn, HDFS, Hive, Hbase, Sqoop,...), Spark 2.3, Kafka, IntelliJ, Exadata Oracle 12g, ELK (Elasticsearch, Kibana, Logstash), Linux, Java, Scala, Python, Agile (Scrum), Github, TeamCity, SonarQube, WinSCP, Putty, Docker, Kubernetes
  • Rôle : Ingénieur étude et développement C++ et C#

    Banque de France
    Jan 2016 - Jan 2016

    Tâches :
     Analyse des spécifications fonctionnelles détaillées et spécifications techniques détaillées
     Développement couche métier en C++ et C#
     Développement des IHM en ASP .NET MVC 4 et Winform
     Développement et optimisation des requêtes SQL en SqlServer 2012
     Mapping des objets en ODB et ADO .NET
     Réalisation des tests unitaires en CCPunit et en Nunit
     Suivi de vesrsions avec tortoise SVN
     Validation et intégration dans le Framework TARGET2-Securities
    Environnement technique: C++, C#, STL, Visual Studio 2013, SVN tortoise, DesignPattern, CPPCheck, Jenkins, Sql Server 2012, Asp .Net MVC 4, SVN Tortoise, Ilog Cplex

    Laboratoire Informatique de Paris Nord, Mars 2015 – Septembre 2015
    Rôle : Ingénieur étude et développement C++
    Tâches :
     Rédaction des spécifications techniques détaillées
     Développement de la couche métier en C++
     Développement des requêtes SQL avec Mysql
     Réalisations des tests unitaires en CCPunit
     Suivi et gestion de versions avec Git
     Mapping des objects avec OBD

    Environnement technique : C++, Boost, Visual Studio 2013, CPPCheck, Mysql Workbench, Git, CCPunit, CCPCheck, PowerAMC
  • Data Engineer

    SFR -
    Jan 2015 - aujourd'hui

    CONTEXTE: Migration d'un système de gestion électronique de documents (GED) vers Datalake
    Développement
     Analyse des besoins en termes de migration
     Développement de pipelines data pour l’alimentation du HDFS et de base de données Cassandra
     Automatisation des déploiements
     Développement de script pour la capture de nouvelles données avec Apache Kafka
     Stockage et indexation des données dans Elasticsearch
     Déploiement deslivrables en production
     Collecte, nettoyage, contrôle de cohérence, date quality
     Développement des jobs Spark pour la récupération et l’analyse des données depuis Oracle avec Spark
    SQL et Scala
     Développement des connecteurs génériques pour l’acquisition et l’insertion des données depuis
    plusieurs sources (Cassandra, HDFS, Elasticsearch),
    CI/CD
     Développement et exécutions destests
     Mise en place de pipelines d'intégration continue
     Documentation du code source dans Gitlab

    ENVIRONNEMENT Hadoop (Yarn, HDFS, Oozie), AWS, GED (Alfresco), Spark, Kafka, Cassandra, SBT, IntelliJ, SQL (Oracle 11g), Mysql 5.7, ELK (Elasticsearch, Kibana, Logstash) , Linux, Python, Agile ( Scrum), Scalatest, WinSCP, Putty
Voir le profil complet de ce freelance

Expertises analogues à YARN quelquefois recherchées

CV YARN, Missions YARN

Les derniers freelances YARN

CV Développeur web REACT.JS
Théo

Développeur web REACT.JS

  • VAURÉAL
REACT.JS Next.js TypeScript JAVASCRIPT POSTGRES MYSQL NODE.JS MONGODB
Disponible
CV Ingénieur de développement JAVA
Anis

Ingénieur de développement JAVA

  • TOULOUSE
JAVA BONITA BPM BONITASOFT ANGULARJS Angular Spring Boot SQL
Disponible
CV Développeur JAVA
Mbaye Babacar

Développeur JAVA

  • TROYES
JAVA Angular REACT.JS
Disponible
Je trouve mon freelance YARN

Les nouvelles missions YARN

Administrateur Big Data Cloudera

Cloudera HDFS YARN LINUX ANSIBLE
28/04/2025
77550 - Villaroche
6 mois
Voir la mission

Expert HPE Ezmeral Datafabric (MapR)

HP
ASAP
75 - Paris
3 mois
Voir la mission
Je trouve ma mission YARN

Les freelances maîtrisant YARN ont postulé à :

Data Engineer

SQL PYTHON SCALA
ASAP
92 - ISSY-LES-MOULINEAUX
3 mois
Voir la mission

Développeur React / DevOps

DEVOPS DOCKER REACT.JS FIGMA NestJS
ASAP
95 - ROISSY-EN-FRANCE
12 mois
Voir la mission
Je trouve ma mission YARN