Développeur Hadoop Cloudera freelance : Meilleurs profils disponibles et missions récentes déposées

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Développeur Hadoop Cloudera habitant l'Ille-et-Vilaine (35)

  • Rôle : Data Enginer Technical leader

    MyMoneyBank(MMB)
    Jan 2019 - aujourd'hui

    Projet : Développement d’un DataHub
    Descriptif du projet : Au sein de l’équipe IT de MyMoneyBank, le but est la mise en place d’un Datahub sécurisé, son enrichement à l’aide de pipeline de divers corps de métier au sein de l’entreprise Missions :
    Participer à la conception technique du datahub
    Mise en place des composants big data sur les plateformes cibles
    Enrichement du Datalake par le développement d’ingestion de pipeline
    Fort de proposition d’architecture de l’éco-système Hadoop
    Développement des algorithmes ingestions de données génériques
    Développement des moyens de monotoring des pipelines développées
    Processing des compteurs et indicateurs
    Migration des traitements vers les services managé AWS

    Environnement technique : Big data: Spark,SparkStreaming, Scala, Java, Python Azure cloud: Lamda, EMR , S3, MSK Databricks, Azure-cli, Databricks-cli, Sql Base de données: Cosmo DB, Azure Post greSql Système: Linux, Windows,MacOS Editeurs: IntelliJ Outils Automatisation : GitLab (CI/CD), Jenkins, Sonar Terraform, Ansible, Docker, Kubernates Outils Intégration : GitLab (CI/CD), Jenkins, Sonar Outils Collaboratifs : Git, JIRA Méthologie : Agile (Scrum,Kanban).
  • Rôle : Data Enginer

    Thalès digital factory (TDF)
    Jan 2018 - aujourd'hui

    Projet : Développement d’un Datalake
    Descriptif du projet : Au sein de l’équipe coreData de thalès digital factory, le but est la mise en place d’un Datalake sécurisé, son enrichement à l’aide de pipeline de données divers et variées à travers des traitements. Et le développement des api(s) pour faciliter son utilisation. Missions :
    Consolider le Datalake par le développement d’Api
    Faciliter l’intégration des MVP (s) sur le Datalake
    Enrichement du Datalake par le développement d’ingestion de pipeline (Osm, opensky, radiology etc)
    Fort de proposition d’architecture Microsoft Azure, AWS
    Définir les technologies azure ou Aws adaptées à des differents cas d’utilisation
    Développement des azures fonctions, ou Lamda
    Processing des compteurs et indicateurs
    Services managé Azure ou AWS

    Environnement technique : Big data: Spark,SparkStreaming, Scala, Java, Python Azure cloud: Azure fonction, Eventhub, Azure Analysis Service, Grafana, Azure Monitor, Azure data lake storage (adls) Gen 1, Azure Data Factory, Databricks, Azure-cli, Databricks-cli, Sql dataware,PowerBI Embeded, Azure data Explore, Azure Data Base, Azure Data Studio… Base de données: Azrue Sql Server, Azure Cosmo DB, Azure Post greSql, Asure Mysql Système: Linux, Windows,MacOS Editeurs: IntelliJ Outils Automatisation
  • Rôle : Développeur Transverse Big Data, B.I et Système et Analyse Fonctionnelle

    Orange OBS
    Jan 2018 - aujourd'hui

    Projet : Industrialisation d’un outil de reporting
    voix (CallStat)
    Descriptif du projet : Dans le cadre de l’industria
    lisation d’un outils de reporting « callStat » déjà réalisé en POC.
    CallStat est un outil de reporting baser sur les lo
    g(s) des appels téléphonique à travers des CDR(s)
    Missions :
    •Comprendre le développement de l’outil existant (POC existant)
    •Comprendre les algorithmes existants et les adaptés à l’industrialisation
    •Détaillé le cahier de charge existant.
    •Definir les technologies Big Data adéquates
    •Mise en place de l’architecture industrielle.
    •Développement de l’industrialisation de l’outils VIZA
    •Développement des compteurs et indicateurs

    Environnement technique : Big data: Map&Reduce, Tez, Llap, Spark, Scala, Impa la, Yarn, Oozie, Hive, Zookeper, HDFS, afka, BigData Gateway, Consumer and Ingestor, Hue, Ambari, Hortonworks, Cloudera, Microsoft Shell,Nifi. B.I: Qlick view. Système: Linux, Windows Editeurs: IntelliJ Outils Collaboratifs : Git, JIRA,Confluence Méthologie : Agile (Scrum).
  • Rôle : Développeur Transverse Big Data, B.I et Système

    Astellia
    Jan 2016 - 2018

    Projet : Nova Analytics
    Descriptif du projet : Dans le cadre de l’évolution
    des produits Astéllia avec des solutions Big data.
    Missions :
    •Développement des solutions big data pour le client K.S.A
    •Développement des solution big data dans le cloud pour le client 3Uk
    •Data mining (Développement des cubes)
    •Optimisation des performances des requêtes et du cluster.
    •Paramétrage et administration de cluster
    •Déveleppoment des dashboards
    •Référent Technique sur les problèmatiques LLap
    •Développement système de bigdata gateway
    •Déploiement des solutions nova_analytics

    Environnement technique : Big data: Map&Reduce, Tez, Llap, Spark, Impala, Yarn, Oozie, Hive, Zookeper, HDFS, Kafka, BigData Gateway, Consumer and Ingestor, Hue, Ambari , Hortonworks, Cloudera, Microsoft Azure(big data dans le cloud), Shell. B.I: Microstrategy. Système: Linux, Windows Outils Collaboratifs : Git Méthologie : Agile (Scrum).
  • Rôle : Développeurs back end Java Spring.

    Altran Technologie
    Jan 2016 - Jan 2016

    Projet : Mecenat
    Dans le cadre des projets de recherche chez altran technologie, j’ai participé au développement d’un logiciel de playlist pour une ra
    dio local.
    Missions :
    •Développement des nouvelles fonctionnalités et corrections des bugs existants

    Environnement technique : Java, Spring, Javascript, eclipse, tomcat.
  • Rôle : Développeur JavaEE et BI

    C.R.F (CROIX-ROUGE FRANÇAISE)
    Jan 2016 - Jan 2016

    Projet : Participer au développement du logiciel de gestion des élections de la CroixRouge française.
    Analyse et développement de l’ensemble des fonctionnalités pour la gestion des élections de la Croix-Rouge. La reprise des données existantes pour la nouvelle application. Reprise des données existantes. Recette et qualification.
    Missions :
    •Développement des fonctionnalités métiers.
    • Intégration des modules existants.
    • Reprise des données existantes.
    • Recette et qualification.

    Environnement technique : Java, Maven, SpringBoot, JPA, Hibernate, REST, Talend, Eclipse, Notepad++, VI, SmartGit, Angular JS, Git, Postgrès, Windows. Méthologie : Agile (Scrum).
  • Rôle : Développeur JavaEE

    C.I.M.U.T (CENTRE INFORMATIQUE DES MUTUELLES),
    Jan 2015 - Jan 2016

    Projet : Participer aux évolutions fonctionnelles et techniques du progiciel STRAWEB afin de pouvoir mieux correspondre aux attentes des mutuell
    es partenaires
    Missions :
    •Développement de nouvelles fonctionnalités métiers (cas CONFLUENS).
    • Paramétrage du progicielle STARWEB.
    • Evolutions des normes existantes.
    • Développement de nouvelles normes.
    • Migration de normes : COBOL -> JAVA.
    • Recette et qualification.

    Environnement technique : Java, Maven, Spring, shell, Bash, Gflux, Eclipse, Notepad++, Vi, Araxis Merge, pklite, Svn, Oracle, Windows, Linux.
  • Rôle : Analyste et Concepteur de système d’aide à la décision

    JYM NUTRITION GROUPE MICHEL
    Jan 2015 - Jan 2015

    Projet : Mise en place d’un système expert d’aide à la décision.
    .
    Objectifs:
    •Etude fonctionnelle et propositions de solutions technologiques adaptées à la problématique du groupe.
    • Analyse technique et Architecture technique.
    • Etablir le budget.
    • Analyse et conception d’un entrepôt de données conforme aux processus métiers.
    • Analyse et conception d’un outil de reporting adapté.
    • Réalisation des recettes.
    Missions :
    •Proposition de différents scénarios de fonctionnement avec les avantages et inconvénients.
    • Réalisation de cahier de charge fonctionnel.
    • Réalisation de l’architecture technique.
    • Définition d’un budget projet conformément aux choix de solutions.
    • Développement de l’entrepôt de données conformément aux questions stratégiques du groupe.
    • Développement spécifique de l’outil de reporting.
    • Test et validation.

    Environnement technique : JavaEE, Tomcat, zkFramework, zk charts, Apache, Script, MySQL, PL/SQL, MVC, MVVM, Eclipse, Notepad++, Talend studio, qlikv iew, jasper soft, msbi.
  • Rôle : Concepteur et Développeur.

    DSI DE LA VILLE DE RENNES
    Jan 2014 - Jan 2014

    Projet : Analyse et conception d’une application de
    gestion des équipements sportifs.
    Missions :
    •Etat de l’art et bibliographie.
    • Démonstration d’architecture adéquate du projet.
    • Elaboration d’un cahier de charge fonctionnel avec la Direction des sports de la ville de Rennes.
    • Définition des spécifications fonctionnelles.
    • Réalisation de l’architecture technique.
    • Modélisation des besoins exprimés (Côté base de données).
    • Formation de l’équipe de développement de la DSI.
    • Mise en place de l’environnement de développement.
    • Développement de prototype.

    Environnement technique : Java: Android, phoneGap, jQuery mobile, Eclipse, Visual Studio, C#, Windows phone, Oracle, SQL ite, HTML, JavaScript.
  • Rôle : Développeur.

    IRISA
    Jan 2014 - Jan 2014

    Projet : Développement de l’interface d’un solveur web.
    Missions :
    •Modélisation des besoins exprimés (modèle métier).
    • Développement de la fonctionnalité de Multi-langues (Français-Anglais) 6/8.
    • Développement de comptes d’utilisateur et la gestion des rôles.
    • Développement d’un analyseur syntaxique intégré.
    • Développement de nouvelles formules mathématiques (ex : l’énigme d’EINSTEIN).
    • Tests et validation.

    Environnement technique : JavaEE, JSP, Servlet, UML, Hibernate, JPA, PHP, JavaScript, CSS, SQL, MySQL, Git, Eclipse
Voir le profil complet de ce freelance

Les nouveaux profils de Développeur Hadoop Cloudera freelance

CV Project Manager & Scrum Master
Mohamed

Project Manager & Scrum Master

  • MARSEILLE
KANBAN AGILE SCRUM JIRA SAFE CONFLUENCE RISQUE PMO PMI PMP ENTERPRISE ARCHITECT
Disponible
CV Ingénieur Big Data
Tresor

Ingénieur Big Data

  • RUEIL-MALMAISON
APACHE HADOOP PYTHON SQL APACHE SPARK AZURE Microsoft Power BI Google Cloud Platform Cloud AWS SCALA DEVOPS
Disponible
CV Consultant TALEND
Amine

Consultant TALEND

  • NANTES
TALEND DI SQL TABLEAU SOFTWARE BIGQUERY GOOGLE DATA STUDIO SALESFORCE
Je trouve mon freelance

Nos dernières missions de Développeur Hadoop Cloudera freelance

Intégrateur LLM

IMPROMPTU PYTHON Cloud AWS Amazon SageMaker LLM
ASAP
44 - NANTES
12 mois
Voir la mission

Lead technique pour encadrer une équipe Big Data

JAVA PYTHON APACHE HADOOP APACHE SPARK Cloudera
ASAP
75 - PARIS
237 jours ouvrés
Voir la mission
Je trouve ma mission