CV Cloudera : Nos meilleurs consultants inscrits

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Cloudera connectés

CV Data Engineer / CP Data
Mehdi

Data Engineer / CP Data

  • SURESNES
ORACLE COGNOS QUERY STUDIO SYBASE APACHE SPARK SCALA TALEND Databricks JAVA AZURE
Disponible
CV Ingénieur de développement JAVA
Salma

Ingénieur de développement JAVA

  • VILLEURBANNE
SQL MYSQL JAVA J2EE JAVASCRIPT .NET
Disponible
CV Software, Data, Cloud and Security Architect
Kad

Software, Data, Cloud and Security Architect

  • ÉCOUEN
Cybersécurité AZURE IDENTITY AND ACCESS MANAGEMENT (IAM) DevSecOps API RESTful AMAZON AWS Generative Pre-trained Transformer JAVA Kubernetes RISQUE
Disponible
CV Architecte Solution Data
Copain Bertrand

Architecte Solution Data

  • NANTEUIL-LÈS-MEAUX
BIG DATA Cloudera Data science Cloud AWS Snowflake
Disponible
CV Architecte d'entreprise
Luc Bertrand

Architecte d'entreprise

  • SANTES
VMWARE BI UNIX LINUX SQL SERVER C++ SECURITE LDAP IAM BIG DATA
Disponible
CV Manager
Bm

Manager

  • PARIS
PROJECT MANAGEMENT OFFICE AGILE SQL
Disponible
CV Ingénieur de développement Full Stack
Madani

Ingénieur de développement Full Stack

  • SAINT-AUBIN-DE-MÉDOC
SQL JAVASCRIPT HTML CSS TALEND DI POSTGRESQL SQL SERVER PYTHON PHP NODE.JS
Disponible
CV Data Scientist/Engineer/Analyst/développeur
Brahim

Data Scientist/Engineer/Analyst/développeur

  • PARIS
PYTHON SQL Google Cloud Platform Databricks Microsoft Power BI Tableau GIT JAVA Dataiku DOCKER
Disponible
CV Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Maher

Consultant Expert Talend (DI/ESB/MDM/BIGDATA)

  • Paris
PL SQL TALEND APACHE HADOOP TALEND MDM JDBC JAVA BIG DATA APACHE SPARK
Disponible
CV Cloud Solution Architect & DevOps
Christian

Cloud Solution Architect & DevOps

  • COURBEVOIE
AZURE Google Cloud Platform Cloud AWS DEVOPS HASHICORP TERRAFORM Kubernetes BIG DATA DECISIONNEL POWERSHELL PYTHON
Disponible
Je trouve un CV Cloudera
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences d'Irving,
freelance CLOUDERA résidant dans les Hauts-de-Seine (92)

  • Data Architect:

    Spuerkeess
    2023 - aujourd'hui

    Professionnel spécialisé dans la création d'écosystèmes, la transformation numérique, les architectures de
    data fabric et data lakehouses. Mon expertise permet aux organisations d'exploiter efficacement leurs données, favorisant ainsi
    l'innovation et la prise de décision basée sur les données, tout en mettant en œuvre les principes du Data Mesh et en assurant
    une gouvernance solide.
    Data Strategy Development: Concevoir une stratégie de données alignée sur les objectifs de transformation numérique de
    l'organisation, en identifiant les objectifs clés en matière de données et en élaborant une feuille de route pour les initiatives liées
    aux données.
    Data Integration Planning: Conception de stratégies d'intégration de données visant à simplifier le flux de données entre divers
    systèmes et plateformes, favorisant ainsi la cohérence et la disponibilité des données. Expertise confirmée dans la gestion de
    flux d'intégration de données complexes pour des pipelines de fabrication automobile, IoT et l'analyse de données en temps réel,
    tout en démontrant une solide compréhension des architectures basées sur les données.
    Cloud Data Architecture : Accompagnement dans l'évaluation, la sélection et la conception de solutions et de services de
    données basés sur le cloud pour favoriser la scalabilité, la flexibilité et l'efficacité des coûts dans un environnement numérique.
    Mon approche est alignée sur les cadres d'adoption frameworks pour garantir une intégration transparente et une optimisation.
    Lakehouse Design: Détermination de l'architecture pour la transition des data lakes et des entrepôts de données monolithiques
    vers une architecture de data fabric et lakehouse, avec une adoption claire de l'architecture Data Mesh.
    Data Mesh: Expérience avérée dans l'implémentation d'une approche décentralisée du Data Mesh, où j'ai joué un rôle clé dans
    la création d'une culture de données au sein de plates-formes de data lakehouse modernes. Expertise pratique dans la mise en
    place d'une gouvernance de données fédérées au sein d'un écosystème collaboratif de données.
    Data Governance : Implémentation des meilleures pratiques de la gouvernance des données et des procédures de gestion des
    données, y compris la data ownership, la data quality standards, et la data lifecycle management des données, le tout dans le
    but de maintenir l'exactitude des données. Création et maintenance de catalogues de données complets pour faciliter la
    découverte et le partage des données au sein de divers domaines (démocratisation des données). Élaboration de stratégies
    d'enrichissement des données visant à améliorer la qualité, la pertinence et l'utilité des données, garantissant ainsi que les
    organisations maximisent la valeur de leurs actifs de données.
    Data-driven architecture : Création d'architectures et de systèmes où les données occupent une position centrale dans la prise
    de décision et les opérations commerciales, les transformant ainsi en une force motrice au sein de l'organisation
    Architecture Diagrams & Documentations : Maintien d'une documentation exhaustive des processus d'intégration de données,
    de diagrammes de flux de données, de diagrammes d'architecture (AD), de dictionnaires de données et de catalogues, dans le
    but de faciliter le partage des connaissances et de garantir la conformité aux réglementations.

    Environnements techniques : #Data Mesh #Cloud adoption framework #Lakehouse #Cloud #Azure #Data driven architecture #Data Governance #Data Fabric #Data Modeling #Data Catalog #Ontology #Data Culture #Data sharing #Data lineage #Data Governance #CAF #Data quality #MDM
  • Cloud Data intégration project leader:

    Forvia
    2019 - 2022

    Expertise confirmée dans la conception et la mise en œuvre de solutions
    d'intégration de données visant à assurer une gestion efficace des données, leur traitement et leur analyse au sein
    d'écosystèmes de données modernes complexes. Compétence éprouvée dans l'utilisation de ressources basées sur le cloud et
    d'outils open source pour générer des data-driven insights basés sur les données, offrant ainsi aux organisations des solutions
    de données évolutives, performantes et rentables.
    Cloud Data integration & Transition: J'ai dirigé l'intégration des données dans Azure Cloud ainsi que dans différents data lakes
    et lakehouses ,Big Data. J'ai une solide expérience dans la migration des données entre plateformes, notamment de Cloudera
    CDP à Palantir Foundry, Azure Databricks et Azure Synapse Analytics.

    Data ingestion : J'ai orchestré l'ingestion en temps réel de flux de données ainsi que la création de pipelines par lots à partir de
    sources diverses et hétérogènes, notamment SAP, IoT telemetry, RDBMS, DHW, API REST, etc., en utilisant des outils tels
    qu'Azure Data Factory, Azure Event Hubs, Apache Kafka, Cloudera Flow Management CFM et Cloudera Stream Messaging CSM.
    Data Pipeline Management : Construction de pipelines de flux de données pour automatiser le déplacement de données entre
    les systèmes, garantissant des transferts efficaces et fiables pour divers cas d'utilisation critiques tels que la détection
    d'anomalies en intelligence artificielle, la gestion des nomenclatures (BOM), la prédiction des prix d'achat, etc.

    Data Mapping and Transformation : Analyse des besoins en données, mappage des sources vers les cibles et conception de
    processus de transformation des données afin d'assurer la cohérence et la qualité, avec une expertise approfondie dans les
    connecteurs de données et les protocoles pour les solutions basées sur les données et l'analyse en temps réel.

    ETL Development: Création et maintenance de processus ETL (Extraction, Transformation, Chargement) pour déplacer, nettoyer,
    transformer et préparer les données en vue de l'analyse et de la génération de rapports, en utilisant des technologies telles
    qu'Azure Data Factory, Apache Spark, Apache Nifi - Minifi, Apache Kafka, ainsi que les connexions et synchronisations de
    données avec Palantir.

    Data Quality Assurance : Développement de procédures de validation et de nettoyage des données visant à assurer l'exactitude
    et l'intégrité des données.

    Monitoring and Error Handling : Surveillance des jobs d'intégration, identification des problèmes, création de processus de
    gestion des erreurs pour une résolution rapide, et réalisation de vérifications de l'état de santé (health checks).

    Data integration for global operational databases: Implémentation de l'intégration des données pour la traçabilité en utilisant
    Azure Cosmos DB pour PostgreSQL (hyperscale) et l'optimisation des performances en mémoire pour les applications mobiles et
    web avec Azure Cache for Redis.

    Agile Project Management : Pratique de la gestion de projet Agile Scrum en utilisant Azure DevOps, assurant une exécution
    efficace du projet et un alignement sur les objectifs de l'organisation.

    Collaboration et Tests Collaboration étroite avec les équipes pour comprendre les besoins en données, réalisation de preuves
    de concept (POC) et garantie que les solutions intégrées de données répondent aux besoins commerciaux.

    Environnements techniques : #AzureCloud #Spark #PySpark #Kafka #Cloudera CDP #Cloudera CFM #Cloudera CEM #Cloudera CSM #AzureDevOps #Nifi #Minifi #Palantir #Grafana #Dataiku #PostgreSQL #AzureSynapse #Solr #Influxdb #Impala #AzureDataFactory #SQLServer #AzureSQLdatabase #ADLS2 #Hadoop #Docker #IoT #REST #DataMesh #Deltalake, #Azure Cosmos DB for PostgreSQL #Cache for Redis #Scrum
  • Senior Big Data Engineer:

    Faurecia:
    2015 - 2019

    Ingénieur Big Data avec une vaste expérience en transformation numérique des données.
    Expert dans plusieurs plates-formes de data lakehouse, incluant le traitement des données, l'ingestion et l'analyse en temps réel,
    le développement et l'optimisation de pipelines de bout en bout, ainsi que la gestion de la sécurité.

    Data Processing: Responsable de l'ensemble du processus de développement des données, y compris la préparation, le
    nettoyage et la transformation des données sur les plateformes Cloudera CDP, Azure Databricks, Azure Synapse Analytics et
    Palantir Foundry.

    Real-time Analytics : Conception de solutions d'analyse en temps réel pour les machines IoT en utilisant Azure Data Explorer et
    le langage de requête Kusto, renforçant ainsi les capacités de prise de décision.

    Data Ingestion : Gestion de données en temps réel et par lots en utilisant des outils tels que Kafka, Cloudera CFM & CEM, et
    Azure EventHub pour une gestion de données delta/append efficace, y compris la capture des modifications (CDC).

    Data Platform Management : Établir et administration des clusters Cloudera CDP et Databricks, garantissant la scalabilité,
    l'optimisation des performances, la haute disponibilité et la fiabilité.

    Data Warehousing: Utilisation d'Azure Synapse Analytics, Apache Impala, Hive et Kudu pour développer et gérer des solutions
    d'entrepôt de données pour des données structurées.

    Sécurité et conformité : Mis en place des mesures robustes de sécurité des données, des contrôles d'accès et de chiffrement
    pour assurer la conformité aux normes de l'industrie et aux réglementations.

    Data Storage Optimisation : Optimisation du stockage et de la récupération des données en gérant les métadonnées, en
    améliorant les performances des requêtes, et en mettant en œuvre des formats de stockage en colonnes tels que Parquet /
    Delta Lake pour les transactions ACID et l'historisation des données dans HDFS et ADLS.

    Migration Cloud : Migration dee la plateforme de données en production de l'on-premises vers le cloud Azure, en veillant à faire
    une transition avec une perturbation minimale.

    Data Quality Assurance : Élaboration de contrôles de qualité des données et de processus de validation visant à maintenir
    l'exactitude et la fiabilité des données.

    Monitoring and Troubleshooting : Surveillance d...

Voir le profil complet de ce freelance