CV/Mission de Consultant YARN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions d'Aymen,
Consultant YARN habitant les Hauts-de-Seine (92)

  • DATA STEWARD (BUSINESS , TECHNICAL , PRIVACY )

    ENGIE Ville de Paris, Île-de-France, France
    Jan 2021 - Jan 2022

    Au sein de ENGIE BtoC - Direction des Clients Professionnels et plus
    précieusement au sein du DATA OFFICE (équipe RID) opérant pour des
    activités de gouvernance des données garantissant la mise en place
    d'une plateforme de gouvernance des données (DATA CATALOG / DATA
    QUALITY /DATA LINEAGE )

    - Mise en place de tableaux de bord qualité des données : données
    distributeur, données échangées entre le distributeur ENEDIS et le fournisseur
    ENGIE
    - Mise en place de tableaux de bord de qualité des données : souscriptions
    aux données de mesure (fine data)
    - Mise en place d'actions correctives garantissant l'exactitude, l'exhaustivité,
    la conformité, l'intégrité, la cohérence, ainsi que la disponibilité des données
    distributeurs
    - Rédaction de fiches concepts : lieux de consommation, point de
    consommation (aspect technique/fonctionnel)
    -Ingestion des données relatives au Glossaire Métier dans COLLIBRA
    -Gestion et supervision des Métadonnées Techniques : collecte des
    différentes métadonnées des différentes applications composant le SI dans
    COLLIBRA (DATA sources )
    -Ingestion de métadonnées techniques dans COLLIBRA
    - mise en place des différents types d'Assets COLLIBRA ( Technology Asset ,
    Governance Assets , ..)
    -Mise en place de diagrammes Lineage sous COLLIBRA Data Lineage

    Environnement technique : Catalogue Collibra et dictionnaire de données , Collibra Business Glossary , Collibra Reference Data , Collibra Policy Manager, Data Helpdesk et Stewardship , Cloudera Data Platform (DATALAKE) , ORACLE , GOJIRA , GOCONFLUENCE , Power BI , HUE(IMPALA/HIVE) , SGE , OMEGA , SoapUI
  • DATA STEWARD Consultant

    Enedis Ville de Paris, Île-de-France, France
    Jan 2019 - Jan 2020

    Au sein du département Laboratoire (Laboratoire accès et qualités des
    données) LAQ et plus précieusement au sein de l'équipe DATAPEDIA
    opérant pour le Projet B4ALL et garantissant la mise en place des services
    garantissant l'activité de Cartographie métadonnées et glossaire de Business
    d'ENEDIS.

    Participation aux différentes Taches :
    Gestion et supervision de la cartographie globale
    Gestion et supervision du business Glossary fonctionnel: mise à jour , collecte
    des informations relatives aux thématiques , sous thématiques , domaines ,
    sous domaines , attributs métiers et objets métiers.
    Ingestion des données relatives au glossaire de Business dans Informatica
    Business Glossary .
    Gestion et supervision de la Méta data Technique : collecte des différentes
    métadonnées des différentes applications composant le SI .
    Ingestion des métadonnées techniques dans Informatica Métadata Manager
    Réconciliation Fonctionnelle technique( mise en place des Assets Links sous
    Informatica Business Glossary )
    Data Lineage
    Participation à un projet de POC de migration vers une nouvelle plateforme
    pour les services de métadonnées ouvertes et de gouvernance (OMAG) .
    Participation à la proposition d'une architecture micro-services basée sur les
    technologies Apache EGERIA , Apache Kafka et Apache Atlas .
    Participation à la mise en place des déploiements Kubernetes et des
    piepelines Jenkins nécessaires dans le cadre du projet de POC.

    Environnement technique : Cloudera Data Platform , Teradata , informatica metadata manager ,informatica business glossary , Apche Atlas , Apache EGERIA , Apache KAFKA ,ORACLE , GOJIRA , GOCONFLUENCE , GITLAB , KUBERNETES , JENKINS , DOCKER , jfrog artifactory, HashiCorp Vault ...
  • BIG DATA Consultant

    Société Générale
    Jan 2018 - Jan 2019

    Au sein du centre de compétences BIG DATA et plus précieusement au sein
    de l'équipe intégrateurs Métier Socle (Agilité) opérant pour des services Métier
    garantissant l'activité de Service payement et Global Transactions.
    l'intégration des applications du domaine Big Data permettant la Collecte des
    données et les différents Use Cases
    Répondre aux besoins des projets en mettant en place les socles techniques
    ( multitude de combinaisons de technologies de socles BIG DATA )
    l'automatisation des procédures d'installation et d'exploitation (création et
    déploiement des keytabs,arborescences hdfs , groupes ldap,users, Scripts de
    transferts , Checks NAgios , job talend , DockerFile , nexus , Jenkins .......)
    Orchestration des use cases sous Oozie et Control M for hadoop , Control M
    ( coordinateurs , Fiche CTRL M ....)
    Création,configuration et déploiement des transferts de données via sqoop ,
    kafka ,Talend Big Data DI... (sources différentes==> datalalke )
    Application de la stratégie d’accès a l'ensemble d'utilisateurs et groupes
    (Ldap , group Ldap , splunk Policy ranger==> HDFS , Apache Hive, HBase...).
    Participation au Workshops et ateliers au sein de l'équipe intégrateurs
    ( formations internes et externes sur les technologies BIG DATA) .
    Application des normes et recommandations techniques définies dans le cadre
    des études des architectes et des éditeurs (sécurité,nomenclature, droits...).
    Métrologie et gestion des METADATA ( Consommation Yarn Queue , Esapce
    HDFS , hbase , Hcatalog, Metastore HIVE ...).
    Mise en place d'un plan de reprise d'activité

    Technologies Big Data Hortonworks Hadoop, HDFS, Ambari, Yarn, Spark, ElasticSearch, Hunk, Kafka, Hive, Nifi, Python, Zookeeper,Ranger , Talend BIG DATA DI , LDAP , ACL openLDAP,Hue, Talend Administration Center, Nagios , Yarn Ressource Manager Technologies automation : Ansible Administration Linux RedHat, Ldap, scripting shell, Devenez, le Reskilling by Fitec
  • Formation Consultant Big Data

    Région de Paris, France
    Jan 2017 - Jan 2018

    Formation métier – Compétences visées :
    – Big Data Overview / Métiers Big Data / Gestion de projet Big Data
    – Base de données NOSQL
    – Ecosystème HADOOP (Architecture Conf/développement)
    – Ingestion/scrapping et intégration des données
    – Analyse des données (écosystème Spark) / Machine Learning Data Science
    – Data visualisation
    – Indexation des données (ELK)/(LOGSTAH KIBANA)
    – Gouvernance des données Big Data/MDM Archi Fonctionnelle/Life-Cycle
    Management
    – Management de soi
    – Réaliser la restitution dans des projets Big Data
    – Projet Fil Rouge

  • BUSINESS INTELLIGENCE IT TERADATA CONSULTANT

    Région de Paris, France
    Jan 2016 - Jan 2017

    Descriptif de la mission : Groupe Société Générale - Business Solution Center
    (RESG/BSC), centre de services partagés, destiné à doter les entités et filières
    (Finance, Risques, Ressources Humaines…) du Groupe Société Générale de
    solutions informatiques globales.
    -gestion de socles techniques pour les environnements Teradata de DEV,
    Homologation & Production.(configuration informatica, datasource ODBC,
    jdbc,
    installation TTU, ouverture de routes, documentation)
    -Gestion des dossiers de bases, users, rôles, profil ..., pour les évolutions.
    -Rechargement des environnements: Import-export TPT.
    -Application des normes Teradata et recommandations techniques définies
    dans le cadre des études et par l'exploitation.
    -Suivi des maintenances, upgrades et patchs Teradata (évolution, incidents
    …)
    -Suivi des backup-réplication-restore, restore sur site de secours (PCA).
    -Capacity planning (suivi des usages et tendance prévisionnelle)
    -Suivi et analyse de métrologie

    -Participation à des projets d'optimisation et audit des traitements (Index,
    explain plan analyze, Skewing & Statistics, TDWM profile, spool …)
    -conseil et support auprès des équipes IT des différentes BU du groupe
    (Clients métier, équipes BENGALORE & TMA Sopra MADRID(communication
    en Anglais)
    sensibilisation aux normes & enjeux des systèmes décisionnels (stagging,
    rechargement, alimentation et restitution)
    -Transition des compétences On-side (Paris) Off-shore (BENGALORE)

    Environnement technique : Teradata Database 14.10 / Teradata VIEWPOINT / Teradata Parallel Transporter / Teradata Administrator / Teradata Studio / SQL Assistant / Teradata DATALAB & Teradata Studio Express for DATALAB / Teradata REST Services / ETL Power Center Informatica 9.1 / Weblogic 12c / BO XiR3 / SAS / NetBackup / HP Quality Center / JUMP ITSM
  • DATAWAREHOUSE ADMINISTRATOR Teradata

    Monoprix
    Jan 2014 - Jan 2015

    Intervention sur les différentes applications permettant la gestion, le suivi et
    la maintenance du Datawarehouse Monoprix (chaine tickets). Gestion des
    encaissements magasins.
    - Suivi d'exploitation en environnement de Production:
    - Vérification du bon déroulement de la chaine Tickets (Jobs et Bteq
    chargement des
    données)
    - Vérification des tableaux de bord de production
    - Vérification de la bonne réception des rapports Microstrategy par les
    différentes équipes (marketing, gestion de compagne,magasins)
    - Administration Datawarehouse :
    - Création de Users, rôles, profils, Macro et Procédures Teradata
    - transfert de données entre les environnements (développement,
    qualification, production)
    - gestion de l’espace disque
    - supervision Teradata Viewpoint
    - Mise en place des alertes automatiques (Espace disk, consommation
    Cpu , session bloquées)
    - Présentation Comité de Performance Teradata

    - Assistance des livraisons en intégration et en production
    - Support SQL à la demande
    - Taches de Purges de Tables et de mise à jour des calendriers
    Datawarehouse
    - Mise à niveau des versions TERADATA
    - Vérification de sauvegarde et rédaction des demandes de Restore.
    - Analyse, correction et redémarrage en cas de plantage ou de non
    cohérence des Résultats
    - Encaissement DWH et GOLDSHOP
    - Vérification des encaissements manquants (magasins manquants)
    - pilotage des opérations de restitution d’encaissements manquants
    - Vérification des Fichiers encaissements destinés au Datawarehouse et à
    GOLDSHOP
    - Rédaction des demandes de réintégration des encaissements...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Consultant YARN, Missions Consultant YARN, Consultant YARN freelance

Les nouvelles missions de Consultant YARN

Lead Dev JAVA & Front End

JAVA JAVASCRIPT Vue.js Spring Boot
ASAP
69 - lyon
6 mois
Voir la mission

Expert Hadoop

APACHE HADOOP PYTHON Cloudera APACHE SPARK SHELL UNIX
ASAP
33170 - GRADIGNAN
6 jours ouvrés
Voir la mission

Expert Hadoop

APACHE HADOOP Cloudera PYTHON APACHE SPARK
ASAP
75 - Paris
6 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

APACHE HADOOP APACHE SPARK JAVA
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Big Data

APACHE HADOOP APACHE SPARK SCALA
ASAP
75 - Paris
6 mois
Voir la mission

Administrateur HADOOP

APACHE HADOOP Cloudera REDHAT
ASAP
94 - Charenton le Pont
24 mois
Voir la mission

Tech Lead BIG DATA

APACHE HADOOP Cloudera BIG DATA APACHE KAFKA ELK
ASAP
75 - Paris
3 mois
Voir la mission

Consultant HADOOP / SPARK

APACHE HADOOP APACHE SPARK
ASAP
75 - Paris
3 mois
Voir la mission

Consultant HADOOP / SPARK / SCALA

APACHE HADOOP APACHE SPARK SCALA JAVA
ASAP
75 - Paris
6 mois
Voir la mission

Lead Développeur SPARK

APACHE SPARK JAVA OPENSTACK HASHICORP TERRAFORM ANSIBLE
ASAP
69- LYON
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Consultant YARN disponibles

CV Développeur JAVA et Data
Jeremy

Développeur JAVA et Data

  • TOURS
JAVA SQL POSTGRESQL APACHE KAFKA BIG DATA
CV Senior Data Engineer
Minh Dung

Senior Data Engineer

  • BEZONS
SQL Airflow GIT TDD SCALA APACHE SPARK PYTHON JAVA Snowflake Databricks
Bientôt disponible
CV Consultant Senior DevOps Infra Big DATA [Big DATA Platfom engineer]
Amine

Consultant Senior DevOps Infra Big DATA [Big DATA Platfom engineer]

  • PUTEAUX
Cloudera BIG DATA DEVOPS Data lake DATAWAREHOUSE
Bientôt disponible
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
CV Architecte APACHE HADOOP
Ahmed Amine

Architecte APACHE HADOOP

  • NANTERRE
APACHE HADOOP TALEND DI APACHE HBASE APACHE KAFKA SQL SERVER AZURE SSIS BIG DATA BI HPE Vertica
Disponible
CV Administrateur Splunk
Mohamed

Administrateur Splunk

  • ANTONY
BUSINESS OBJECTS BI SPLUNK SAP BI SHELL UNIX PYTHON BIG DATA ELK Cybersécurité Microsoft Power BI
Disponible
CV Architecte d'entreprise
Luc Bertrand

Architecte d'entreprise

  • SANTES
VMWARE BI UNIX LINUX SQL SERVER C++ SECURITE LDAP IAM BIG DATA
Disponible
CV Chef de projet Data
Christel

Chef de projet Data

  • Paris
DATA SCRUM PYTHON R DATAVIZ BIG DATA Dataiku
Disponible
CV BI / Analytics Engineer
Ferhat

BI / Analytics Engineer

  • CHATOU
SQL Google Cloud Platform BI JIRA BIGQUERY EXCEL TALEND Microsoft Power BI
Disponible
CV Consultant APACHE HADOOP
Jaleed

Consultant APACHE HADOOP

  • NOGENT-SUR-OISE
BASH APACHE HADOOP Cloudera ANSIBLE REDHAT HDFS APACHE HBASE GIT HASHICORP TERRAFORM JAVA
Disponible
Je trouve mon freelance