CV Cloudera : Trouvez votre intervenant freelance

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Cloudera connectés

CV Consultant Big DATA / Cloud / DataOps
Yacine

Consultant Big DATA / Cloud / DataOps

  • Bagneux
APACHE HADOOP APACHE KAFKA DATA ORACLE Cloud AWS
Disponible
CV Scrum Master AGILE
Said

Scrum Master AGILE

  • NANTERRE
AGILE SCRUM SAFE JIRA CONFLUENCE KANBAN Microsoft Power BI Qlik Sense JAVA SQL
Disponible
CV Architecte Solutions
Redouane

Architecte Solutions

  • Herblay
Cloud AWS Google Cloud Platform IBM PLATFORM CLOUD SERVICES BIG DATA OPEN SOURCE ENTERPRISE ARCHITECT Cybersécurité NoSQL
Disponible
CV Data PM & Architect / Senior Data Scientist
Tahar

Data PM & Architect / Senior Data Scientist

  • JOUY-LE-MOUTIER
Data science BI R APACHE HIVE DATAVIZ BIG DATA APACHE HADOOP Data lake PYTHON APACHE SPARK
Disponible
CV Data Engineer
Arfang

Data Engineer

  • PARIS
APACHE SPARK PYSPARK Databricks Cloud AWS DOCKER JENKINS AZURE HASHICORP TERRAFORM ELK Kubernetes
Disponible
CV Chef de projet ou Directeur de projet infra
Franck

Chef de projet ou Directeur de projet infra

  • MARLY-LE-ROI
CISCO Cloudera ACTIVE DIRECTORY ITIL AS400 WINDOWS 2012 WINDOWS 10 WIFI WAN SD-WAN
Disponible
CV TECH LEAD DATA ENGINEER SENIOR
Moncif

TECH LEAD DATA ENGINEER SENIOR

  • Ruel
SQL BI BIG DATA INFORMATICA TERADATA VTOM SCRIPT SHELL Snowflake Cloud AWS PYTHON
Disponible
CV Business Intelligence & Data Integration
Chamseddine

Business Intelligence & Data Integration

  • ASNIÈRES-SUR-SEINE
TALEND AGILE SQL SCRUM SSIS Snowflake BI Microsoft Power BI JIRA
Disponible
CV Architecte Solution BIG DATA
Copain Bertrand

Architecte Solution BIG DATA

  • NANTEUIL-LÈS-MEAUX
BIG DATA Cloudera Data science
Bientôt disponible
CV Architecte solution data
Naoufal

Architecte solution data

  • Meudon
Cloud AWS AZURE Google Cloud Platform MDM BI Cloudera TOGAF BIG DATA SAFE ARCHIMATE
Disponible
Je trouve un CV Cloudera
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences d'Irving,
freelance CLOUDERA résidant dans les Hauts-de-Seine (92)

  • Data Architect:

    Spuerkeess
    2023 - aujourd'hui

    Professionnel spécialisé dans la création d'écosystèmes, la transformation numérique, les architectures de
    data fabric et data lakehouses. Mon expertise permet aux organisations d'exploiter efficacement leurs données, favorisant ainsi
    l'innovation et la prise de décision basée sur les données, tout en mettant en œuvre les principes du Data Mesh et en assurant
    une gouvernance solide.
    Data Strategy Development: Concevoir une stratégie de données alignée sur les objectifs de transformation numérique de
    l'organisation, en identifiant les objectifs clés en matière de données et en élaborant une feuille de route pour les initiatives liées
    aux données.
    Data Integration Planning: Conception de stratégies d'intégration de données visant à simplifier le flux de données entre divers
    systèmes et plateformes, favorisant ainsi la cohérence et la disponibilité des données. Expertise confirmée dans la gestion de
    flux d'intégration de données complexes pour des pipelines de fabrication automobile, IoT et l'analyse de données en temps réel,
    tout en démontrant une solide compréhension des architectures basées sur les données.
    Cloud Data Architecture : Accompagnement dans l'évaluation, la sélection et la conception de solutions et de services de
    données basés sur le cloud pour favoriser la scalabilité, la flexibilité et l'efficacité des coûts dans un environnement numérique.
    Mon approche est alignée sur les cadres d'adoption frameworks pour garantir une intégration transparente et une optimisation.
    Lakehouse Design: Détermination de l'architecture pour la transition des data lakes et des entrepôts de données monolithiques
    vers une architecture de data fabric et lakehouse, avec une adoption claire de l'architecture Data Mesh.
    Data Mesh: Expérience avérée dans l'implémentation d'une approche décentralisée du Data Mesh, où j'ai joué un rôle clé dans
    la création d'une culture de données au sein de plates-formes de data lakehouse modernes. Expertise pratique dans la mise en
    place d'une gouvernance de données fédérées au sein d'un écosystème collaboratif de données.
    Data Governance : Implémentation des meilleures pratiques de la gouvernance des données et des procédures de gestion des
    données, y compris la data ownership, la data quality standards, et la data lifecycle management des données, le tout dans le
    but de maintenir l'exactitude des données. Création et maintenance de catalogues de données complets pour faciliter la
    découverte et le partage des données au sein de divers domaines (démocratisation des données). Élaboration de stratégies
    d'enrichissement des données visant à améliorer la qualité, la pertinence et l'utilité des données, garantissant ainsi que les
    organisations maximisent la valeur de leurs actifs de données.
    Data-driven architecture : Création d'architectures et de systèmes où les données occupent une position centrale dans la prise
    de décision et les opérations commerciales, les transformant ainsi en une force motrice au sein de l'organisation
    Architecture Diagrams & Documentations : Maintien d'une documentation exhaustive des processus d'intégration de données,
    de diagrammes de flux de données, de diagrammes d'architecture (AD), de dictionnaires de données et de catalogues, dans le
    but de faciliter le partage des connaissances et de garantir la conformité aux réglementations.

    Environnements techniques : #Data Mesh #Cloud adoption framework #Lakehouse #Cloud #Azure #Data driven architecture #Data Governance #Data Fabric #Data Modeling #Data Catalog #Ontology #Data Culture #Data sharing #Data lineage #Data Governance #CAF #Data quality #MDM
  • Cloud Data intégration project leader:

    Forvia
    2019 - 2022

    Expertise confirmée dans la conception et la mise en œuvre de solutions
    d'intégration de données visant à assurer une gestion efficace des données, leur traitement et leur analyse au sein
    d'écosystèmes de données modernes complexes. Compétence éprouvée dans l'utilisation de ressources basées sur le cloud et
    d'outils open source pour générer des data-driven insights basés sur les données, offrant ainsi aux organisations des solutions
    de données évolutives, performantes et rentables.
    Cloud Data integration & Transition: J'ai dirigé l'intégration des données dans Azure Cloud ainsi que dans différents data lakes
    et lakehouses ,Big Data. J'ai une solide expérience dans la migration des données entre plateformes, notamment de Cloudera
    CDP à Palantir Foundry, Azure Databricks et Azure Synapse Analytics.

    Data ingestion : J'ai orchestré l'ingestion en temps réel de flux de données ainsi que la création de pipelines par lots à partir de
    sources diverses et hétérogènes, notamment SAP, IoT telemetry, RDBMS, DHW, API REST, etc., en utilisant des outils tels
    qu'Azure Data Factory, Azure Event Hubs, Apache Kafka, Cloudera Flow Management CFM et Cloudera Stream Messaging CSM.
    Data Pipeline Management : Construction de pipelines de flux de données pour automatiser le déplacement de données entre
    les systèmes, garantissant des transferts efficaces et fiables pour divers cas d'utilisation critiques tels que la détection
    d'anomalies en intelligence artificielle, la gestion des nomenclatures (BOM), la prédiction des prix d'achat, etc.

    Data Mapping and Transformation : Analyse des besoins en données, mappage des sources vers les cibles et conception de
    processus de transformation des données afin d'assurer la cohérence et la qualité, avec une expertise approfondie dans les
    connecteurs de données et les protocoles pour les solutions basées sur les données et l'analyse en temps réel.

    ETL Development: Création et maintenance de processus ETL (Extraction, Transformation, Chargement) pour déplacer, nettoyer,
    transformer et préparer les données en vue de l'analyse et de la génération de rapports, en utilisant des technologies telles
    qu'Azure Data Factory, Apache Spark, Apache Nifi - Minifi, Apache Kafka, ainsi que les connexions et synchronisations de
    données avec Palantir.

    Data Quality Assurance : Développement de procédures de validation et de nettoyage des données visant à assurer l'exactitude
    et l'intégrité des données.

    Monitoring and Error Handling : Surveillance des jobs d'intégration, identification des problèmes, création de processus de
    gestion des erreurs pour une résolution rapide, et réalisation de vérifications de l'état de santé (health checks).

    Data integration for global operational databases: Implémentation de l'intégration des données pour la traçabilité en utilisant
    Azure Cosmos DB pour PostgreSQL (hyperscale) et l'optimisation des performances en mémoire pour les applications mobiles et
    web avec Azure Cache for Redis.

    Agile Project Management : Pratique de la gestion de projet Agile Scrum en utilisant Azure DevOps, assurant une exécution
    efficace du projet et un alignement sur les objectifs de l'organisation.

    Collaboration et Tests Collaboration étroite avec les équipes pour comprendre les besoins en données, réalisation de preuves
    de concept (POC) et garantie que les solutions intégrées de données répondent aux besoins commerciaux.

    Environnements techniques : #AzureCloud #Spark #PySpark #Kafka #Cloudera CDP #Cloudera CFM #Cloudera CEM #Cloudera CSM #AzureDevOps #Nifi #Minifi #Palantir #Grafana #Dataiku #PostgreSQL #AzureSynapse #Solr #Influxdb #Impala #AzureDataFactory #SQLServer #AzureSQLdatabase #ADLS2 #Hadoop #Docker #IoT #REST #DataMesh #Deltalake, #Azure Cosmos DB for PostgreSQL #Cache for Redis #Scrum
  • Senior Big Data Engineer:

    Faurecia:
    2015 - 2019

    Ingénieur Big Data avec une vaste expérience en transformation numérique des données.
    Expert dans plusieurs plates-formes de data lakehouse, incluant le traitement des données, l'ingestion et l'analyse en temps réel,
    le développement et l'optimisation de pipelines de bout en bout, ainsi que la gestion de la sécurité.

    Data Processing: Responsable de l'ensemble du processus de développement des données, y compris la préparation, le
    nettoyage et la transformation des données sur les plateformes Cloudera CDP, Azure Databricks, Azure Synapse Analytics et
    Palantir Foundry.

    Real-time Analytics : Conception de solutions d'analyse en temps réel pour les machines IoT en utilisant Azure Data Explorer et
    le langage de requête Kusto, renforçant ainsi les capacités de prise de décision.

    Data Ingestion : Gestion de données en temps réel et par lots en utilisant des outils tels que Kafka, Cloudera CFM & CEM, et
    Azure EventHub pour une gestion de données delta/append efficace, y compris la capture des modifications (CDC).

    Data Platform Management : Établir et administration des clusters Cloudera CDP et Databricks, garantissant la scalabilité,
    l'optimisation des performances, la haute disponibilité et la fiabilité.

    Data Warehousing: Utilisation d'Azure Synapse Analytics, Apache Impala, Hive et Kudu pour développer et gérer des solutions
    d'entrepôt de données pour des données structurées.

    Sécurité et conformité : Mis en place des mesures robustes de sécurité des données, des contrôles d'accès et de chiffrement
    pour assurer la conformité aux normes de l'industrie et aux réglementations.

    Data Storage Optimisation : Optimisation du stockage et de la récupération des données en gérant les métadonnées, en
    améliorant les performances des requêtes, et en mettant en œuvre des formats de stockage en colonnes tels que Parquet /
    Delta Lake pour les transactions ACID et l'historisation des données dans HDFS et ADLS.

    Migration Cloud : Migration dee la plateforme de données en production de l'on-premises vers le cloud Azure, en veillant à faire
    une transition avec une perturbation minimale.

    Data Quality Assurance : Élaboration de contrôles de qualité des données et de processus de validation visant à maintenir
    l'exactitude et la fiabilité des données.

    Monitoring and Troubleshooting : Surveillance d...

Voir le profil complet de ce freelance