CV/Mission de Data scientist PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Ken,
Data scientist PySpark habitant l'Oise (60)

EXPERIENCES SIGNIFICATIVES

AXA – Nanterre
07/2022 à 01/2024 – 1 ans et 6 mois
Data Engineer
Projet 1: Fiabilisation des DSN
Contexte et objectif : Dans le cadre du traitement des fichiers DSN envoyés par les clients
d’AXA, une fiabilisation de ces données est nécessaire afin de pouvoir répondre
efficacement aux clients d’AXA et éviter les erreurs de paiement dans les arrêts de travail
et les taux de remboursement.
Environnement travail/fonctionnel : Équipe de 6 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Déploiement (CI/CD)
▪ Industrialisation des travaux des Data Scientist
▪ Implémentation de briques en vue de la création d’une librairie
Environnement technique :
Python, PySpark, Azure DataBricks, Azure Data Factory, Azure DevOps(Board, Repos,
Pipeline, Artifacts), Git, Pycharm

▪ Euroclear : Data Engineer – 7 mois
▪ Boursorama : Data Engineer – 9 mois
▪ Roquette : Data Engineer – 3 mois
▪ Louis Vuitton : Data Engineer – 2 ans et 2 mois
▪ Keyrus : Data Engineer – 9 mois
▪ SNCF : Ingénieur BI et Développement JAVA en Alternance – 3 ans

REFERENCES PROFESSIONNELLES
EUROCLEAR – Bruxelles
12/2021 à 06/2022 – 7 mois
Data Engineer
Projet 1: Enrichissement du Datalake
Contexte et objectif : Dans un environnement anglophone, mise en place de pipeline
d’ingestion de données issue de bases de données IBM Mainframe pour l’enrichissement
du datalake Hadoop et la mise à disposition pour les data scientist et les équipes du service
Finance.
Environnement travail/fonctionnel : Équipe de 10 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Documentations techniques
▪ Design de chaînes d’ingestion
▪ Proposition d’amélioration de conservation et partage de connaissance
▪ Déploiement (CI/CD)
Environnement technique :
Scala, Spark, Hadoop, Cloudera, Azure DevOps(Board, Repos, Pipeline, Artifacts), Git,
Splunk, IBM Mainframe, Kafka, Jira, IntelliJ, Eclipse, Maven, Bash
Projet 2: Maintenance des pipelines des projets en production
Contexte et objectif : Maintenir les pipelines en production dans le respect des SLA associées
à chacun des différents projets dans le cadre de la Hotline du service Analytics
Environnement travail/fonctionnel : Équipe de 10 personnes en SCRUM
Domaine d’intervention :
▪ Troubleshooting
▪ Gestion des tickets
▪ Analyse de code et optimisation
▪ Transfert de connaissance.
▪ Déploiement (CI/CD)
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Environnement technique :
Scala, Spark, Hadoop, Cloudera, Azure DevOps(Board, Repos, Pipeline, Artifacts), Git,
Splunk, IBM Mainframe, Kafka, Jira, IntelliJ, Eclipse, Maven, Bash
BOURSORAMA – Boulogne-Billancourt
03/2021 à 11/2021 – 9 mois
Data Engineer
Projet 1: Enrichissement du Datalake
Contexte et objectif : Avancée de la construction du socle Hadoop et de sa résilience.
Structuration de la données par la création de Masters à partir de données brutes ayant
été nettoyée et préparée pour un usage généralisé. Afin d’accélérer le développement de
nouvelles pipelines de données.
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Revue et optimisation des codes pour le passage en industrialisation
▪ Déploiement (CI/CD)
▪ Amélioration des règles de codages et de la structure des projets
▪ Enrichissement continue du code et mutualisation
Environnement technique :
Scala, Spark, Hadoop, Cloudera, NiFi, Jenkins, Nexus, Stash, Docker, Kafka, Zeppelin, Jira,
IntelliJ, SBT
Projet 2 : Segmentation Client
Contexte et objectif : En interaction avec la Direction Client, création de l’indicateur de
Relation Bancaire et d’indicateurs associés pour segmenter les clients entre différents pôles
et répartir la charge entre les équipes internes pour augmenter l’efficacité opérationnelle.
Amélioration du ciblage pour les campagnes marketing et meilleur accompagnement des
clients par la proposition de meilleurs services.
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins clients
▪ Analyse des données.
▪ Implémentation, proposition et amélioration des règles de gestion
▪ Mise en place de pipeline de traitement de données
▪ Déploiement (CI/CD)
Environnement technique :
Scala, Spark, Hadoop, Cloudera, NiFi, Jenkins, Nexus, Docker, Stash, Kafka, Zeppelin, Jira,
IntelliJ, SBT
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Projet 3 : Industrialisation des process d’ingestion NiFi
Contexte et objectif : Dans le cadre du processus d’automatisation des pratiques de
développement, mise en place d’un script de déploiement automatisé en production des
ProcessGroup NiFi pour réduire les temps d’intégration et de développement des nouvelles
sources de données d’alimentation du Cluster Hadoop sur plusieurs environnements de
production
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Définition des règles cibles d’industrialisation
▪ Benchmark et étude d’outils
▪ Implémentation de scénarii pour validation
▪ Mise en place du déploiement automatisé sur plusieurs environnement de
production
Environnement technique :
Python, NiPyApi, NiFi Client, NiFi, Nifi Registry
ROQUETTE – Lille (La Madeleine)
10/2020 à 12/2020 – 3 mois
Data Engineer
Projet 1: Dynamic Pricing
Contexte et objectif : industrialisation de modèles de pricing dynamique
Les sujets ont porté sur : La revue des codes fournis par les Data Scientists en vue de leur
industrialisation, l’industrialisation de ces scripts dans le Datalake. La mise en place de
pipeline d’ingestion de fichiers en architecture serverless.
Environnement travail/fonctionnel : Équipe de 5 personnes en SCRUM
Domaine d’intervention :
▪ Définition des Best Practices en vue de l’industrialisation
▪ Mise en place des pipelines d’ingestion
▪ Revue et optimisation des codes pour le passage en industrialisation
▪ Industrialisation de modèles
▪ Tests unitaires
▪ Déploiement
▪ Implémentation d’Azure Function.
Environnement technique :
Python, Visual Studio Code, Git, Azure(Azure Blob Storage, Data Lake Storage, Azure
Function, Azure DevOps, Azure Data Factory)
Projet 2: E-Tabletting
Contexte et objectif : E-Tabletting doit permettre la recommandation et la personnalisation
des formulations des composées par les clients externes via des modèles d’Intelligence
Artificielle. Pour cela, il est nécessaire d’implémenter différents types de bases : clients,
process, produits, essais, etc.
Environnement travail/fonctionnel : Équipe de 6 personnes en SCRUM
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Domaine d’intervention :
▪ Analyse du besoin avec le Product Owner
▪ Définition des features avec le métier
▪ Mise en place des pipelines d’ingestion
▪ Extraction, Transformation et Traitement des données (fichiers sources aux formats
divers(xlsx, docx, txt) issus de rapports d’essais cliniques, logs de presses à
comprimé)
▪ Optimisation (temps d‘exécution, format des fichiers sources)
▪ Refactorisation du code
▪ Mise en production
Résultats : Génération d’un jeu de données corrigée et utilisable pour la phase de
modélisation.
Environnement technique :
Python, Visual Studio Code
LOUIS VUITON – Châtelet (Paris I)
05/2018 à 07/2020 – 2 ans et 2 mois
Data Engineer
Projet : Data Lab Louis Vuitton
Contexte et objectif : Dans le cadre du développement de la plateforme ONEDATA (centre
névralgique de la donnée au sein de Louis Vuitton), les sujets ont portés sur : le déploiement
et monitoring de jobs, la mise en place de pipelines de traitement et de stockage des
données produits issues du catalogue Louis Vuitton et du site internet ainsi que des processus
d’alimentation d’un moteur de recherche interne à Louis Vuitton et d’applications annexe
de recherche produit destiné aux vendeurs en boutique.
Environnement travail/fonctionnel : Équipe de 7 personnes en SCRUM
Domaine d’intervention :
▪ Analyse du besoin avec les équipes métiers
▪ Mise en place et industrialisation des pipelines d’ingestion, de transformation et de
traitement des données :
o Ingestion de données : produits, application lvlive (réseau social),
application learning (réseau de partage de connaissance)
o Transfert et traitement vers l’API REST du moteur de recherche Meilisearch
o Traitement et alimentation de l’application de référencement du
catalogue Louis Vuitton
o Envoi des données pour l’alimentation du modèle de personnalisation du
site WEB Louis Vuitton (QUBIT)
▪ Monitoring et Gestion des Jobs Spark (Airflow, Prometheus, Graphana, Python,
Scala, Spark)
▪ Création et déploiement automatisé de Job de récupération et de traitement de
données (produits, marketing) sur Cluster Cloudera.
▪ Monitoring et Gestion des Jobs Spark (Airflow, Prometheus, Graphana, Python,
Scala, Spark)
▪ Script de traitement de données de chatbot Louis Vuitton, Traitement de donnée
d'API de Social Listenning (Netbase) à des fins d'analyse de sentiments (Python,
Jupyter Notebook)
▪ Gestion de base de données dans le cloud (Heroku)
▪ Indexation de données (Elasticsearch)
Doss...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data scientist PySpark, Missions Data scientist PySpark, Data scientist PySpark freelance

Les nouvelles missions de Data scientist PySpark

Senior Data Engineer

GIT Cloud AWS
ASAP
Télétravail
12 mois
Voir la mission

Data engineer senior

SONARQUBE SCALA Microsoft Power BI Cloud AWS PYSPARK
ASAP
93 - NOISY-LE-GRAND
24 mois
Voir la mission

Développeur Fullstack PYTHON / ANGULAR

PYTHON Angular REACT.JS Vue.js
ASAP
75 - Paris
12 mois
Voir la mission

DATA ENGENEER

BIG DATA PYTHON APACHE HADOOP CI/CD
ASAP
75 - Paris
3 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Data Engineer

SQL PYTHON JENKINS GITLAB Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

PYSPARK PYTHON
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer (H/F) - Bordeaux

PYTHON Microsoft Power BI PYSPARK
ASAP
33 - BORDEAUX
24 mois
Voir la mission

Data Scientist

PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

DATA Scientist

DATA
ASAP
79 - Niort
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data scientist PySpark disponibles

CV Data Scientist PYSPARK
Ange

Data Scientist PYSPARK

  • FONTENAY-AUX-ROSES
PYSPARK PYTHON AZURE SQL
CV Data Scientist PYSPARK
Sarra

Data Scientist PYSPARK

  • Béja
PYSPARK ECLIPSE PAPYRUS MICROSOFT BI SAS BIG DATA PL SQL APACHE HADOOP APACHE KAFKA
CV Data Analyst/Data Scientist/ Data Ingenieur
Lionel

Data Analyst/Data Scientist/ Data Ingenieur

  • BLAGNAC
Microsoft Power BI PYTHON SQL EXCEL SQL SERVER TABLEAU SOFTWARE POSTGRESQL DATA BIGQUERY TALEND
CV Développeur Machine Learning
Belaid

Développeur Machine Learning

  • MELUN
SQL PYTHON DATA Deep Learning PyTorch PYSPARK Cloud AWS LLM AZURE Google Cloud Platform
CV Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist
Benoit-Labre

Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist

  • PARIS
SELENIUM BIG DATA JAVA SQL MYSQL GITLAB Microsoft Azure Machine Learning PYTHON
CV Analyste technico-fonctionnel
Laure

Analyste technico-fonctionnel

  • SAINT-ÉTIENNE-DE-CROSSEY
PHP SQL JAVASCRIPT PYTHON Data science JIRA
Bientôt disponible
CV Ingénieur MLOps PYTHON
Keivan

Ingénieur MLOps PYTHON

  • CHARENTON-LE-PONT
PYTHON DATA Data science PYSPARK SQL APACHE SPARK BIG DATA Cloud AWS JAVA
Bientôt disponible
CV Data Engineer / Data Scientist
Josephine

Data Engineer / Data Scientist

  • LE VÉSINET
PYTHON Data science PANDAS GIT Airflow PYSPARK SQL Google Cloud Platform Cloud AWS DEVOPS
Bientôt disponible
CV Consultant IA Data Science
Imad

Consultant IA Data Science

  • VILLIERS-SUR-MARNE
PYTHON DATA SQL Data science DOCKER BIG DATA JAVA Google Cloud Platform PYSPARK Microsoft Power BI
Disponible
CV Data Engineer
Narjes

Data Engineer

  • VILLIERS-SUR-MARNE
PYTHON DATA SQL Azure Data Factory AZURE Databricks PYSPARK Power BI Google Cloud Platform
Disponible
CV Product Owner/Data Scientist
Sana

Product Owner/Data Scientist

  • SAINT-FORGET
Data science LLM PYTHON EXCEL SCRUM Microsoft Power BI APACHE SPARK Cloud AWS
Disponible
CV Data Analyst
Jerome

Data Analyst

  • LYON
PYTHON SQL DATA SQL SERVER POSTGRESQL Azure Data Factory Microsoft Power BI TALEND BIG DATA PYSPARK
Disponible
Je trouve mon freelance