CV/Mission YARN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Massipssa,
freelance YARN habitant la Seine-Saint-Denis (93)

  • TechLeadDataEngineer

    Société Générale -
    Jan 2021 - aujourd'hui

    CONTEXTE: Mise en place des contrôles pour la surveillance des marchés financiers (Market Abuse
    Surveillance)
     Mise en place et validation de solutionstechniques
     Développement de pipelines de collecter, ingestion et transformation des données de l’ensemble des
    bourses mondiales des traders de la Société Générale
     Implémentation de contrôles financiers(Front Running, Insider, …) en PySpark
     Migration de contrôles depuis Hadoop on-premise vers cloud Azure (HDinsight, Azure Storage, …)
     Migration d’Airflow 1.1.9 vers Airflow 2.1.3
     Développement d’un outil de monitoring de l’ensemble des applications Spark via l’API Yarn, la Stack
    EKL (Elasticsearch, Kibana, …) et Alerta
     Automatisation de la création et la destruction des clusters HDInsight via Airflow
     Amélioration et développement de pipelines de CI/CD avec Jenkins et Ansible
     Code review et validation des Pull Request de toute l’équipe de développement
     Veiller au bon fonctionnement de l’ensemble des parties techniques de la Platform
     Accompagner et faire monter en compétences des Data Engineer Junior
     Passation des entretiens techniques et validation des profils
     Security Champion de l’équipe, un rôle permettant d’attribuer les droits selon les profils, gérer les
    accès dans Azure avec Azure AD et Azure Keyvault, …

    ENVIRONNEMENT Azure, Docker, Kubernetes, Ansible, Hadoop (Yarn, HDFS, Hive, Oozie), Spark 2. 4 / 3.1, Apache Airflow, Apache Livy, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty, IntelliJ, PyCharm
  • - DataEngineer

    BNPParibas
    Jan 2020 - Jan 2021

    CONTEXTE: Conception et implémentation de l'ensemble des parties d'un Datahub
    Architecture
     Conception de la zone DataLake dans HDFS
     Conception d'une architecture d'intégration de flux de données en tempsréel
    Développement
     Développement d'un pipeline pour l'intégration de différents dans Hadoop (HDFS, Hive, ...)
     Mise en place de module du monitoring des Workspaces dans Datahub
     Collecte, indexation et stockage deslogs de l'ensemble des modules du Datahub dans Elasticsearch
     Evolution d'un ETL Spark pour la récupération et transformation des flux métier contenu dans des
    fichiers CSV
     Développement d'un module Python pourl'alimentation du Tableau Server
    Tests et livraisons(CI/CD)
     Mise en place d'un pipeline CI avec Azure Devops, Jenkins et SonarQube
     Automatisation du déploiement des livrables avec Ansible
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT Azure, Ansible, Hadoop (Yarn, HDFS, HBase, Hive...), Hortonwork 2.6, Spark, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty
  • DataEngineer

    PSA -
    Jan 2019 - Jan 2020

    CONTEXTE Conception et mise en place d'un Datalake
    Architecture
     Définir les architectures techniques des projets Data et leurs Templates
     Conception d'architectures microservice pour la mise en place de PoC (Proof of Concept)
     Définition des modèles de développement et de livraison avec Docker
    Data Security et gouvernance
     Sécurisation d’accès aux ressources du DataLake (HDFS, Kafka, Hive,Hbase) via Apache Ranger
     Synchronisation des ressources du cluster entre Apache Ranger et Atlas avec une API Java
    Streaming & Batch Processing
     Développement d'un outil ClickStream pour la collecte des erreurs de l'application ServiceBox PSA
     Développement d'un outil permettant aux clients de PSA de s'opposer à la sauvegarde des données
    personnelles (droit à l'opposition) protégées par la loi RGPD
     Inspiration de différentes sources de données, traitement et stockage (Spark, Scala, parquet, ...)
     Implémentation de pipeline d'ingestion de tables Exatadata vers Elasticsearch
    Tests et livraisons(CI/CD)
     Développement de tests TDD / BDD
     Analyse et inspection de la qualité du code avec SonarQube
     Automatisation du processus de déploiement depuis Git jusqu'aux serveurs de production avec
    TeamCity
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT AWS, Hortonwork 2.6, Hadoop 2 (Yarn, HDFS, Hive, Hbase, Sqoop,...), Spark 2.3, Kafka, IntelliJ, Exadata Oracle 12g, ELK (Elasticsearch, Kibana, Logstash), Linux, Java, Scala, Python, Agile (Scrum), Github, TeamCity, SonarQube, WinSCP, Putty, Docker, Kubernetes
  • Rôle : Ingénieur étude et développement C++ et C#

    Banque de France
    Jan 2016 - Jan 2016

    Tâches :
     Analyse des spécifications fonctionnelles détaillées et spécifications techniques détaillées
     Développement couche métier en C++ et C#
     Développement des IHM en ASP .NET MVC 4 et Winform
     Développement et optimisation des requêtes SQL en SqlServer 2012
     Mapping des objets en ODB et ADO .NET
     Réalisation des tests unitaires en CCPunit et en Nunit
     Suivi de vesrsions avec tortoise SVN
     Validation et intégration dans le Framework TARGET2-Securities
    Environnement technique: C++, C#, STL, Visual Studio 2013, SVN tortoise, DesignPattern, CPPCheck, Jenkins, Sql Server 2012, Asp .Net MVC 4, SVN Tortoise, Ilog Cplex

    Laboratoire Informatique de Paris Nord, Mars 2015 – Septembre 2015
    Rôle : Ingénieur étude et développement C++
    Tâches :
     Rédaction des spécifications techniques détaillées
     Développement de la couche métier en C++
     Développement des requêtes SQL avec Mysql
     Réalisations des tests unitaires en CCPunit
     Suivi et gestion de versions avec Git
     Mapping des objects avec OBD

    Environnement technique : C++, Boost, Visual Studio 2013, CPPCheck, Mysql Workbench, Git, CCPunit, CCPCheck, PowerAMC
  • Data Engineer

    SFR -
    Jan 2015 - aujourd'hui

    CONTEXTE: Migration d'un système de gestion électronique de documents (GED) vers Datalake
    Développement
     Analyse des besoins en termes de migration
     Développement de pipelines data pour l’alimentation du HDFS et de base de données Cassandra
     Automatisation des déploiements
     Développement de script pour la capture de nouvelles données avec Apache Kafka
     Stockage et indexation des données dans Elasticsearch
     Déploiement deslivrables en production
     Collecte, nettoyage, contrôle de cohérence, date quality
     Développement des jobs Spark pour la récupération et l’analyse des données depuis Oracle avec Spark
    SQL et Scala
     Développement des connecteurs génériques pour l’acquisition et l’insertion des données depuis
    plusieurs sources (Cassandra, HDFS, Elasticsearch),
    CI/CD
     Développement et exécutions destests
     Mise en place de pipelines d'intégration continue
     Documentation du code source dans Gitlab

    ENVIRONNEMENT Hadoop (Yarn, HDFS, Oozie), AWS, GED (Alfresco), Spark, Kafka, Cassandra, SBT, IntelliJ, SQL (Oracle 11g), Mysql 5.7, ELK (Elasticsearch, Kibana, Logstash) , Linux, Python, Agile ( Scrum), Scalatest, WinSCP, Putty
Voir le profil complet de ce freelance

Compétences proches de YARN occasionnellement sollicitées

CV YARN, Missions YARN

Les derniers freelances YARN

CV Développeur NODEJS
Miguel

Développeur NODEJS

  • CORBEIL-ESSONNES
NODE.JS Express.js TypeScript REACT.JS DOCKER CI/CD NestJS Next.js
Disponible
CV Consultant APACHE HADOOP
Jaleed

Consultant APACHE HADOOP

  • NOGENT-SUR-OISE
BASH APACHE HADOOP Cloudera ANSIBLE REDHAT HDFS APACHE HBASE GIT HASHICORP TERRAFORM JAVA
Disponible
CV BI / Analytics Engineer
Ferhat

BI / Analytics Engineer

  • CHATOU
SQL Google Cloud Platform BI JIRA BIGQUERY EXCEL TALEND Microsoft Power BI
Disponible
CV Data Engineer confirmer
Abdellah

Data Engineer confirmer

  • FRESNES
PYTHON LINUX GITLAB CI/CD JENKINS DEVOPS ANSIBLE DOCKER JAVA Kubernetes
Disponible
CV Développeur  Big Data
Ibrahima

Développeur Big Data

  • LE MANS
TALEND PYTHON PYSPARK Databricks AZURE DOCKER JENKINS
Disponible
CV Consultant Senior DevOps Infra Big DATA [Big DATA Platfom engineer]
Amine

Consultant Senior DevOps Infra Big DATA [Big DATA Platfom engineer]

  • PUTEAUX
Cloudera BIG DATA DEVOPS Data lake DATAWAREHOUSE
Bientôt disponible
CV Développeur fullstack senior
Bouzaabit

Développeur fullstack senior

  • TOULOUSE
SPRING SQL REST Angular REACT.JS AMAZON AWS
CV Développeur Fullstack
Oussama

Développeur Fullstack

  • LE PERREUX-SUR-MARNE
JAVASCRIPT .NET C# MYSQL Vue.js SYMFONY SQL SERVER PHP TypeScript Tailwind
Disponible
CV Data Engineer SCALA
Wael

Data Engineer SCALA

  • SAINT-CYR-L'ÉCOLE
APACHE SPARK Kafka APACHE HADOOP SQL SCALA Cloud AWS JAVA Angular
Disponible
CV Développeur web
Fadel

Développeur web

  • ORLÉANS
JAVA SQL ORACLE Angular SQL SERVER MYSQL Spring Boot SELENIUM GIT PYTHON
Je trouve mon freelance YARN

Les nouvelles missions YARN

Expert BIGDATA : OnPrem & AZUR

PYTHON ANSIBLE Kubernetes APACHE HIVE HDFS
ASAP
puteaux
6 mois
Voir la mission

Lead Dev JAVA & Front End

JAVA JAVASCRIPT Vue.js Spring Boot
ASAP
69 - lyon
6 mois
Voir la mission

Administrateur/Architecte technique confirmé linux windows vmware

UNIX WINDOWS VMWARE
ASAP
PARIS
6 mois
Voir la mission

Architecte Technique Hadoop

PYTHON APACHE HADOOP APACHE HIVE APACHE SPARK Cloudera
ASAP
75 - PARIS
12 mois
Voir la mission

Expert Hadoop

APACHE HADOOP PYTHON Cloudera APACHE SPARK SHELL UNIX
ASAP
33170 - GRADIGNAN
6 jours ouvrés
Voir la mission

Expert Hadoop

APACHE HADOOP Cloudera PYTHON APACHE SPARK
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Backend

C JAVASCRIPT GIT
ASAP
75 - PARIS
3 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

APACHE HADOOP APACHE SPARK JAVA
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Backend

C C++ JAVASCRIPT BLOCKCHAIN
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur Frontend

HTML CSS GIT REACT.JS TypeScript
ASAP
75 - PARIS
6 mois
Voir la mission
Je trouve ma mission YARN

Les freelances maîtrisant YARN ont postulé à :

Développeur React / DevOps

DEVOPS DOCKER REACT.JS FIGMA NestJS
ASAP
95 - ROISSY-EN-FRANCE
12 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

CLoud Architect GCP

Google Cloud Platform
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur expérimenté REACT / NextJS / Node

NODE.JS REACT.JS TypeScript
ASAP
75 - PARIS
6 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Architect Azure

JAVA PYTHON SCALA AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
6 mois
Voir la mission

Engineering Manager - Expertise PHP Symfony

PHP SYMFONY PHP MAGENTO Vue.js PRESTASHOP WORDPRESS
ASAP
Télétravail
6 mois
Voir la mission

Developpeur PHP Symfony

SOAP PHP LARAVEL JAVASCRIPT HTML PHP SYMFONY CI/CD
ASAP
PARIS
6 mois
Voir la mission

développeur front end

JAVASCRIPT ANGULARJS GITLAB TypeScript Vue.js
ASAP
Télétravail
6 mois
Voir la mission

developpeurs REACT

REACT.JS JAVA
ASAP
Paris
400 jours ouvrés
Voir la mission
Je trouve ma mission YARN