Missions BIG DATA : Une multitude d'offres publiées quotidiennement

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions BIG DATA à pourvoir

Ingénieur MLOps

PyTorch Kubernetes BIG DATA DataRobot MLOps
07/04/2025
92130
6 mois
Voir la mission

Expert OpenStack

LINUX GRAFANA ELK OPENSTACK ANSIBLE
ASAP
78 - VERSAILLES
12 mois
Voir la mission
Je trouve ma mission BIG DATA

Les intervenants BIG DATA ont aussi candidaté à :

Architecte fonctionnel Data senior/expert

AGILE
14/04/2025
92 - PUTEAUX
12 mois
Voir la mission

Architecte Solution Cloud, Data et IA

DATA DEVOPS Cloud AWS
10/04/2025
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission BIG DATA
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Djim,
freelance BIG DATA habitant la Seine-Saint-Denis (93)

  • Consultant Big Data

    Eradah capital Dubai, Émirats Arabes Unis
    Jan 2019 - aujourd'hui

    Mise en place d’une solution de reporting bancaire en temps réel avec kafka Stream
    Développent de solutions big data en temps réel
    Migration de la sérialisation et de dé-sérialisation de json à avro avec kafka schema registry
    Développent d’applications de temps réels avec KAFKA Stream
    Mise en place de Kafka connect applications pour intégrer les données depuis les bases transactionnelles.
    Création de connecteurs débezium
    Développement d’un programme Spark Streaming
    Implémentation des « kafka Producer » de données pour stocker les erreurs
    Mise en place des tests Unitaires
    Gestion des logs des pods avec Fluentd
    Création de tableaux de bords des logs avec kibana

    Technology: Kafka, Kafka Stream, Kafka Connect, Debezium, Hadoop, Kubernetes, Docker, Microsoft Azure, Spark, SQL Server, Fluentd, Elasticsearch, Kibana
  • Consultant Big Data

    Société Générale Paris, France
    Jan 2016 - Jan 2019

    Mise en place d’une solution Big Data vison 360 pour le département ressources humaines
    Mise en place d’une application Big Data pour certifier de données bancaires
    Mise en place d’une application Big Data d’exploitation des données de ServiceNow

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, Elasticsearch et Kibana
  • Consultant Big Data

    Société Générale Paris, France
    Jan 2016 - Jan 2019

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, elasticsearch et Kibana
  • Consultant Big Data

    Capgemini Rennes, France
    Jan 2016 - Jan 2016

    Analyse de faisabilité de migration buisines intelligence vers le Big Data
    Définition d'architecture et de solutions Big Data
    Développement de traitements d'extraction et de transformation de données
    Modélisation de données avec Cassandra
    Chargement de données sur Cassandra
    Conception et développement de modules de traitements de données en Spark
    Création des « User Defined Functions » pour les transformations Big Data
    Réaliser de la veille technique Big Data

    Environnement: Spark, Cassandra, Scala, Hadoop, Eclipse, Maven
  • Consultant Business Intelligence

    Capgemini Rennes, France
    Jan 2012 - Jan 2016

    Analyse des besoins des évolutions techniques
    Etude d’impact des évolutions des applications Business intelligence
    Rédaction des spécifications fonctionnelles
    Rédaction des spécifications techniques
    Développent SSRS reports avec SSRS 2012 pour les applications de facturations, d’achats et finances
    Conception de Datawarehouses et Datamarts
    Chargement des données de fichiers plats et Excel dans une base de données Oracle en utilisant SQL * Loader
    Création de packages SSIS pour charger des données dans une base de données centralisée SQL Server (à partir de sources de données diversifiées)
    Création et / ou modification des procédures stockées, des tables et des requêtes
    Création de plans de test et les scripts de test en fonction des besoins
    Gestion des validations fonctionnelles et d’intégrations
    Rédaction documentation technique et d’installation pour la pré-production
    Rédaction documentation technique et d’installation pour la production

    Environnement: Unix/Shell, Oracle, Quality Center, SQL avancé, SSIS (SQL Server Integration Services), SSRS (SQL Server Reporting Services), SQL Server Studio
  • Stage de fin d’étude en Business Intelligence

    Orange Grenoble, France
    Jan 2011 - Jan 2011

    Mise en place de solutions de business intelligence pour le secteur médical
    Modélisation d'un Datawarehouse (création, paramétrage et configuration)
    ETL : création de jobs et conception de flux d'alimentation
    Création de procédures stockées, d'informations map, de cubes, de Reporting et de tableaux de bord

    Environnement: SAS (Enterprise guide, Web Report Studio, Enterprise Miner, Information Map), Oracle DB, UML
Voir le profil complet de ce freelance