CV/Mission de Développeur Cloudera freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Nidhal,
Développeur Cloudera habitant les Hauts-de-Seine (92)

  • Expert Talend – Architecte BI

    CNAV
    Jan 2022 - aujourd'hui

    Accompagnement et conseil de l’équipe Data Factory –
    Architecture, modélisation et ingestion de données.
    ❖ COPROD
    • Optimiser le processus de la production et la qualité
    de service
    Introduction aux notions de la BI Agile.
    Introduction aux notions d’ingestion massive.
    Mise en place d’une stratégie d’ingestion de
    données en couche.
    Implémentation des jobs assurant la synchronisation
    de l’entrepôt de données.
    Implémentation des vues matérialisées pour assurer
    l’exposition des données à la visualisation.
    ❖ FIABILISATION
    • Optimiser le processus de fiabilisation de la carrière
    Organisation du Backlog produit à fin de réduire les
    éventuelles dépendances.
    Mise en place de la Matrice Bus de Données.
    Modélisation des différents objet à charger.
    Implémentation des jobs Talend assurant le
    chargement des différents objets à travers les
    différentes couches.
    ❖ TRANSVERSE
    • Mise en place d’un cycle de développement Talend.
    • Migration depuis SVN vers GitLab.
    • Travaux d’optimisation sur les chaines d’ingestion Big
    Data.
    • Formation des équipes: Agilité, BI, Data Vault, Talend
    Dimension du projet
    8 personnes
    Termes Métiers
    Domaine, Produit de données,
    Reservoire, Carrière,
    Fiabilisation, RGCU, etc...
    Socle technique
    TAC, Cloudera V6, Hadoop,
    Oracle, PostgreSQL, SVN, Git,
    ELT/ETL, Hive, Spark, Parquet,
    EDWH, Indexima, PowerBI ,
    etc…

  • Tech Lead Data Analytics

    Minitubes
    Jan 2022 - Jan 2022

    • Définition de la roadmaps et accompagnement sur
    la mise en œuvre d’une stratégie data agile.
    • Etude comparative des différents choix technologiques
    tout en prenant en compte les cas business, le type de
    données sources, le budget, les compétences.
    • Proposition et validations des unités d’œuvres et work
    package de mise œuvre dans le cadre de la phase
    d’ingestion de données.
    • Mise en place d’un scénario d’intégration de données.
    Dimension du projet
    3 mois – 4 personnes
    Termes Métiers
    Domaine Facturation, Domaine
    Opération, Process, etc...
    Socle technique
    Talend Cloud, Snowflake, Git,
    Remote Engine, ELT/ETL, Azure,
    etc...

  • Consultant Data – Expert Talend

    BNP Real Estate
    Jan 2021 - Jan 2022

    L'équipe RESEARCH a besoin d’acquérir le maximum de données
    statistiques immobilières dans les pays ou BNPRE commercialise
    des produits, le croisement des données permet de créer de
    l’intelligence et de faire des analyses de marché approfondies.
    ❖ Partie Projet IRD:
    ➢ Mise en place d'un cycle de vie de développement
    • Implémentation d'un SDLC facilitant le travail
    collaboratif et les revues de code croisées.
    • Assurer la formation de l'équipe sur le Workflow de
    développement proposé.
    • Mise en place d'un tableau KANBAN pour assurer une
    gestion visuelle plus détaillée.
    ➢ Mise en place d'un système d'automatisation du processus
    d'alimentation à travers un Framework de métadonnées
    • Modélisation d'un entrepôt de données de deux
    couches.
    • Implémentation des jobs Talend assurant le suivi des
    exécutions.
    • Implémentation des jobs d’intégration de données
    respectant les règles de gestion.
    • Implémentation d'une mécanique de gestion de rejets et
    de notification.
    • Accompagner les membres de l’équipe sur la mise en
    place des connecteurs d'intégration via des service web
    REST.
    ➢ Mise à disposition et modélisation des données pour le
    Reporting
    • Animation des réunions de grooming pour assurer la
    bonne compréhension du besoin.
    • Implémentation du Data Module.
    • Participation au développement des rapports
    analytiques.
    Dimension du projet
    12 mois – 6 personnes
    Termes Métiers
    Location, Offre, Investissement,
    etc...
    Termes techniques
    tExtractXmlField, tRESTClient, Git,
    etc...
    Outils techniques
    Talend Open Studio, GitEye,
    GitLab, Putty, WinSCP, SQL
    Server, etc...

  • Tech Lead Talend

    Fnac-Darty
    Jan 2021 - Jan 2021

    Mise en place de l'entrepôt de données Fnac-Darty
    ❖ Partie Projet - EAGLE
    • Rédaction et préparation de la
    stratégie d'alimentation.
    • Conception et développement de Template de
    développement des jobs Talend en mode ELT.
    • Accompagner les juniors sur les difficultés rencontrés.
    • Mise en place des algorithmes de Hash pour la
    création des SK pour paralléliser les traitements sur les
    différentes couches d'intégration.
    Dimension du projet
    5 mois – 7 personnes
    Termes Métiers
    Ref magasin, Ref produit, ligne
    de vente, etc...
    Termes techniques
    tExtractXmlField, ELT, Raw Data
    Layer, Business Data LAyer,
    DWH, etc...
    Outils techniques
    Talend Big Data Real Time,
    Talend Administration
    Center, Teradata, Putty,
    WinSCP.

  • Team Lead Talend – Smart connecteurs

    PeopleSpheres
    Jan 2019 - Jan 2021

    Mise en place et maintien des synchronisations des
    données avec les fournisseurs de services.
    ❖ Partie smart connecteur:
    ➢ Agrume : Implémentation d’un connecteur d’intégration des
    collaborateurs | 10 Flux
    • Collaboration étroite avec le responsable des opérations
    pour assurer l’affinement de besoin.la répartition de
    charge.
    • Paramétrage du socle peopleSpheres pour assurer la
    synchronisation des données avec le partenaire.
    • Planification des itérations, rédaction des user stories,
    estimation et négociation des délais.
    • Analyse des APIs et Implémentation des flux Talend
    sortants et entrants.
    • Planification de la phase QA et UAT avec les parties
    prenantes internes après avoir validé techniquement le
    code en revue croisée.
    • Mise en production, et planification des flux.
    ➢ eDocSign : Implémentation d’un connecteur de gestion de
    signature électronique. | 6 Flux
    • Préparation des jeux de données et analyse du besoin.
    • Planification et préparation des itérations.
    • Mise en place des comportements attendus (BDD:
    Behavior Driven Development) avec le chef de projet
    fonctionnel.
    • Implémentations des flux Talend assurant la transition
    des données.
    • Validation de PV d’UAT (User Acceptance Test) interne.
    Dimension du projet
    19 mois – 8 personnes
    Termes Métiers
    Onboarding, TurnOver, Bilan
    Social, Gestion des talents,
    Gestion des déponses, etc...
    Termes techniques
    tJsonWrite, tRESTClient,
    tHttpRequest, tREST, tKeyStore,
    DynamicSchema , Xslt, XML,
    JRXML, etc...
    Outils techniques
    Talend Studio 7.0.1, Talend
    Cloud Management Console,
    Talend Data Preparation, Git,
    PgAdmin Filezilla, Putty, WinSCP.
    ➢ Flatchr : Implémentation d’un connecteur de recrutement | 4 Flux
    • Rédaction des user stories et validation du workflow
    fonctionnel.
    • Paramétrage et préparation de la plateforme
    peopleSpheres pour intégrer le nouveau partenaire.
    • Implémentation des flux de synchronisation des données.
    • Préparation des cahiers de recette.
    • Déploiement et planification des flux.
    ➢ eDocSign : Implémentation d’un connecteur de gestion de
    signature électronique. | 6 Flux
    • Préparation des jeux de données et analyse du besoin.
    • Planification et préparation des itérations.
    • Mise en place des comportements attendus
    (BDD: Behavior Driven Development) avec le chef de
    projet fonctionnel.
    • Implémentations des flux Talend assurant la transition
    des données.
    • Validation de PV d’UAT (User Acceptance Test) interne.
    ➢ « Caisse des Dépôts »: Implémentation d’un connecteur de
    génération documentaire | 2 Flux
    • Recueil du besoin suite au Kick-off.
    • Validation du Template des sources de données.
    • Implémentation des flux Talend assurant la génération,
    des CV pdf, des différents collaborateurs.
    • Validation des livrables avec le client.
    • Mise en production et planification du connecteur.
    ➢ Badgeuse : Implémentation d’une synchronisation de données de
    géolocalisation| 6 Flux
    • Etude des APIs et préparation de données.
    • Implémentation des jobs Talend.
    • Préparation des fichiers de configuration du connecteur.
    • Déploiement et planification du connecteur.
    ➢ e2Time : Implémentation d’une synchronisation de données de
    pointage | 3 Flux
    • Paramétrage du socle pour accueillir le module e2Time.
    • Implémentation des Joblets génériques assurant
    la synchronisation partielle des données utilisateurs.
    • Implémentation des jobs Talend.
    • Validation des livrables.
    • Mise en production et planification des flux.
    ❖ Partie architecture et administration
    • Réalisation d’un audit pour assurer la conformité
    de l’architecture existante aux recommandations
    Talend.
    • Préparation et proposition d’un DAT à l’issue des
    outputs de l’audit.
    • Mise en place d’un SDLC pour faciliter le partage,
    la standardisation et la réutilisation de code source.
    • Passage à une architecture cloud hybride en mettant
    en place des moteurs d’exécution distant (Remote
    Engine).
    • Etude et proposition d’une nouvelle architecture se
    basant sur la notion CDC (Change Data Capture) pour
    éviter un envoi massif de données (Incremental Load).

  • Consultant SeniorData Services

    JCDecaux
    Jan 2018 - Jan 2018

    Mise en place et maintien des flux de gestion de
    données JCDécaux France
    ❖ Partie Projet
    • Conception et développement des routes Camel pour
    assurer le suivi temps réel de l’état des panneaux
    publicitaires, des réseaux et des interventions.
    • Paramétrage des consommateurs Kafka pour assurer
    la répartition de charge.
    • Mise en place des algorithmes de Hash pour réduire
    la durée de traitement des messages consommés.
    • Implémentation d’un algorithme de gestion des rejets.
    • Conception et développement des jobs pour la data
    tiering ( Historisation des tables sous le système de
    fichier de MapR ).
    ❖ Partie MCO
    • Développement et déploiement des patchs correctifs
    de PROD.
    • Conception, développement des jobs de reprise de
    données.
    • Conception des univers BO avec IDT (Information
    Design Tool).
    • Implémentation des évolution sur les rapports Tableau
    ❖ Partie SLDC et process
    • Installation des briques ES...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Développeur Cloudera, Missions Développeur Cloudera, Développeur Cloudera freelance

Les nouvelles missions de Développeur Cloudera

Développeur Big data senior sur Paris

SQL DATASTAGE COGNOS BIG DATA
ASAP
Paris
6 mois
Voir la mission

Développeur Datastage px

SQL SERVER DATASTAGE PYTHON SQL
ASAP
Paris
6 mois
Voir la mission

Développeur cognos sur paris

SQL SERVER PYTHON BIG DATA SQL
ASAP
Paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Développeur JAVA / ANGULAR

JAVA Angular JENKINS
ASAP
75 - Paris
6 mois
Voir la mission

Data Engineer Datastage H/F

SQL DATASTAGE PX JIRA Microsoft Power BI
ASAP
69 - LYON
12 mois
Voir la mission

Lead technique pour encadrer une équipe Big Data

JAVA PYTHON APACHE HADOOP APACHE SPARK Cloudera
ASAP
75 - PARIS
237 jours ouvrés
Voir la mission

Développeur BIG DATA JAVA

JAVA APACHE HADOOP BIG DATA Cloudera
ASAP
67 - STRASBOURG
6 mois
Voir la mission

Développeur et administrateur Big Data

SQL APACHE HADOOP APACHE SPARK Cloudera PYSPARK
ASAP
69 - LYON
12 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

APACHE HADOOP APACHE SPARK JAVA
ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission

Les profils de Développeur Cloudera ont postulé à :

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission

Développeur Big Data / Data Engineer H/F

DATA PYTHON APACHE HADOOP SCALA APACHE SPARK
ASAP
Paris
36 mois
Voir la mission

DATA ENGINEER

JAVA APACHE SPARK APACHE HADOOP
ASAP
Télétravail
36 mois
Voir la mission

Consultant Formateur

BI BIG DATA APACHE SPARK Microsoft Power BI BI MICROSOFT
ASAP
Télétravail
5 jours ouvrés
Voir la mission

Data Engineer F/H

SQL PYTHON AZURE Snowflake PYSPARK
ASAP
59
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur Cloudera disponibles

CV Consultant middleware esb eai et devops
Samir

Consultant middleware esb eai et devops

  • Montauban
WEBMETHODS
Bientôt disponible
CV Architecte Solution BIG DATA
Copain Bertrand

Architecte Solution BIG DATA

  • NANTEUIL-LÈS-MEAUX
BIG DATA Cloudera Data science
Bientôt disponible
CV TECH LEAD DATA ENGINEER SENIOR
Moncif

TECH LEAD DATA ENGINEER SENIOR

  • Ruel
SQL BI BIG DATA INFORMATICA TERADATA VTOM SCRIPT SHELL Snowflake Cloud AWS PYTHON
Disponible
CV Software, Data, Cloud and Security Architect
Kad

Software, Data, Cloud and Security Architect

  • ÉCOUEN
Cybersécurité AZURE IDENTITY AND ACCESS MANAGEMENT (IAM) DevSecOps API RESTful AMAZON AWS Generative Pre-trained Transformer JAVA Kubernetes RISQUE
Disponible
CV Data Engineer SQL
Ahmed

Data Engineer SQL

  • PARIS
SQL BI AGILE TERADATA DATAWAREHOUSE Data lake MVS MAINFRAME Microsoft Power BI AZURE
Disponible
CV Ingénieur de production - DevOps
Mamadou Lamine

Ingénieur de production - DevOps

  • PARIS
LINUX BIG DATA DEVOPS Cloudera REDHAT Kubernetes OPEN SOURCE WEBSPHERE REDHAT OPENSHIFT DOCKER
Disponible
CV Développeur JAVA
Benjamin

Développeur JAVA

  • LILLE
JAVA API RESTful Rust SQL JAVASCRIPT NoSQL Spring Boot
Disponible
CV Architecte IPTV
Benjamin

Architecte IPTV

  • thiais
IPTV
Disponible
CV Architecte Solutions
Epo

Architecte Solutions

  • Poissy
JAVA UNIX J2EE DESIGN PATTERNS TOGAF ARCHIMATE SAFE DDD
Disponible
CV Data PM & Architect / Senior Data Scientist
Tahar

Data PM & Architect / Senior Data Scientist

  • JOUY-LE-MOUTIER
Data science BI R APACHE HIVE DATAVIZ BIG DATA APACHE HADOOP Data lake PYTHON APACHE SPARK
Disponible
Je trouve mon freelance