CV/Mission de Data scientist PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Gilles,
Data scientist PySpark habitant les Yvelines (78)

  • Ingénieur Machine Learning

    Generali Vie, DSI, Innovation and Cognitive Solutions
    Jan 2021 - Jan 2021

    Surpaiement des prestations de dossiers maladies (Prévoyance Collective)
    - Etude des déperditions en collaboration avec le cabinet McKinsey : analyse des causes racines et chiffrage
    - Développement d’un outil de scoring (PySpark et Python) pour détecter automatiquement les déperditions
    - Création de pipelines de traitement de données de plusieurs sources (base Oracle, Hadoop et Datamart) dans un
    environnement Cloudera
    - Analyse de la qualité des données (couverture et données manquantes) pour l’intégration de nouvelles sources de données dans un système d’aide à la décision (application métier)
    Projet de détection de fraude interne et externe
    - Framework de détection de fraude (interface visuel Linkurious) pour investigation sur la fraude
    - Création de pipeline de données avec des jobs Dataiku (PySpark et Python) à partir de tables Hive
    - Ingestion des données d’Hadoop vers un serveur Neo4j avec des scripts Unix (ordonnanceur Dollar Universe et stream Kafka)

    Environnement : Python (Numpy, Scikit learn, Pandas), PySpark, Dataiku, Cloudera (Hadoop), Hue, Hive, Impala, Oracle, SQL, Neo4j, Unix, Kafka, Git, Gitlab
  • Machine Learning Data Associate

    Bucarest, Roumanie
    Jan 2020 - Jan 2021

    Amazon, Alexa Data Services
    • Optimisation des modèles de reconnaissance de la parole et de part-of-speech tagging à partir de plusieurs algorithmes
    : SGD, Adam, Adagrad, Adadelta et RMSProp
    • Développement d’un pipeline de données ETL et de déploiement de scripts dans AWS grâce à Pyspark, Kafka, EC2,
    Amazon S3, AWS Lambda et Jenkins
    • Assistance dans la transcription et annotation des données audio d’utilisateurs francophones

    Environnement : AWS, Pyspark, Kafka, EC2, Amazon S3, AWS Lambda, Jenkins
  • Data scientist

    Bucarest, Roumanie
    Jan 2020 - Jan 2020

    Fordaq, département IT
    • Business Transformation : Benchmark de solution technologiques (Business Intelligence/Analytics) pour monitorer et évaluer les ventes de souscription d’abonnement Fordaq
    • Préparation de dataset à partir de base de données MSSQL (connexion de la base de données grâce à sqlite3 à un environnement de programmation Python)
    • Analyse de sentiment des messages du chat Fordaq avec des modèles SVMs, Random Forests, et Naive Bayes

    Environnement : Python (sqlite3, Numpy, Sci-kit, Pandas), Tableau, MSSQL
  • Data Analyst

    Limoges, France
    Jan 2018 - Jan 2019

    Legrand, département production, Amélioration de process
    • Construction d’un modèle statistique du fonctionnement d’un entrepôt de stockage pour augmenter la productivité et réduire les pertes de produits lié à l’obsolescence
    • Rédaction d’un rapport d’analyse, et présentation des résultats (à l’aide du logiciel TABLEAU). Le rapport peut être très bien lu par des partenaires interne et externe et à pour but de donner des indications claires pour comment améliorer la gestion des produits

    Environnement : Tableau, Access, Python
  • Responsable technique d’application

    SNCF (Entité Réseau ferré)
    Jan 2018 - Jan 2019

    Etablissement et suivi de la gestion de montée de versions, de différents environnements (Integration, MCO, Formation , Préproduction, Production) au moyen de chronogramme
    Coordination entre différentes équipes (production, métier) pour des interventions ponctuelles
    Suivi des accès des habilitations des utilisateurs (interne et clientèle)

    Environnement : CITRIX, LINUX, ORACLE, VTOM
  • Intégrateur d’application

    CNP
    Jan 2015 - Jan 2017

    Création de scripts pour l’automatisation de l’intégration des dsx (pour la V8 en Unix et pour la V11en Linux)
    Mise en place des composants dans les environnements d’intégration et recette
    Demande de modification de base si nécessaire
    Lancement des tests
    Mise en place en production après validation des études.
    Suivi de la mise en exploitation via CTRLM

    Environnement : CTRLM (V8), SCRIPT (Unix Linux), Datastage serveur (V8), Datastage PX (V11), Oracle (9.5)
  • BPIFRANCE
    Jan 2011 - aujourd'hui

    En relation avec les études et la production, prise en compte des besoins de livraisons des applications commerciales (OAD, BCP CRM) et risques (BSR, DWO et BSRsa) pour l’espace d’intégration
    Vérification de la conformité entre les documents d’exploitation, de livraison pour l’intégration et le besoin exprimé
    Contrôle et installation des composants pour la recette
    Déroulement de la stratégie de recette
    Préparation des livrables pour la production
    Création du document de livraison vers la production (ordre chronologique d’installation, détail de l’installation, cas particuliers…).
    Création du plan de test technique
    Suivi de la mise en exploitation

    Environnement t : CTRL M, SCRIPT (cmd), WINDOWS Seven, WINDOWS XP, Chrome, Datastage serveur (8.7), Datastage PX, Oracle (9.5) DB2 (v10), WAS, JAVA, TOMCAT
  • CNP
    Jan 2009 - Jan 2010

    Evolution et maintenance sur différents projets (CDS – ETC – EMB…) avec évolution de la documentation suivant la norme CMMI
    Suivi d’exploitation des chaînes existantes de l’équipe DWH
    Reprise et mise en place du projet OVI comprenant réception de fichier venant d'Espagne, mise au point avec les équipes, enrichissement des données et insertion en base pour les utilisateurs avec en complément le projet FER (Flux Externe de Régulation : fichier de code de point de vente)
    Développement du projet CAE ( restitution du CApital Economique)
    Initialisation et enrichissement d’un référentiel pour l’application CCA (Cube des Comptes Actuariat)
    Suivi de la mise en intégration, recette
    Création de dossier technique

    Environnement : WINDOWS XP, Unix, Datastage PX (7.5.1.A), Datastage serveur (7.5.3),Oracle (9.5) via Toad
  • CACEIS
    Jan 2008 - Jan 2009

    Analyse technique du datamart TA (Transfert Agent)
    Migration de l’application de Datastage V6 vers DatastageV8
    Mise en place script shell pour le lancement des jobs (nuit, événementiels, technique)
    Mise en place environnent Qual, Prod(Coté datastage, Unix)
    Réalisation de schéma, dossier d’exploitation, dossier de monitoring
    Suivi qualification et production

    Environnement : WINDOWS XP, Unix, Datastage Server 6 et 8, Oracle via PL/SQL
  • DARTY
    Jan 2008 - Jan 2008

    Analyse fonctionnelle des besoins des utilisateurs pour l’élaboration de rapports décisionnels sur la gestion de l’occupation de chaque personne s’occupant du B2B.
    Modélisation des tables de réception ODS, dataware et datamart
    Spécification technique détaillée
    Développement (datastage) des interfaces entre SIEBEL (pourvoyeur de données), l’ODS, le dataware et le datamart, création de scripts Unix pour effectuer les liens.
    Suivi de la mise en recette
    Réalisation de schéma et dossier d’exploitation

    Environnement : WINDOWS XP, Unix, Datastage Server 7.5, DB2 via TOAD, SIEBEL OSEO (10/2006 – 04/2008)
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data scientist PySpark, Missions Data scientist PySpark, Data scientist PySpark freelance

Les nouvelles missions de Data scientist PySpark

Développeur Fullstack PYTHON / ANGULAR

PYTHON Angular REACT.JS Vue.js
20/01/2025
75 - Paris
12 mois
Voir la mission

Senior Data Engineer

GIT Cloud AWS
ASAP
Télétravail
12 mois
Voir la mission

Data engineer senior

SONARQUBE SCALA Microsoft Power BI Cloud AWS PYSPARK
ASAP
93 - NOISY-LE-GRAND
24 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

DATA ENGENEER

BIG DATA PYTHON APACHE HADOOP CI/CD
ASAP
75 - Paris
3 mois
Voir la mission

Data Engineer

SQL PYTHON JENKINS GITLAB Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

PYSPARK PYTHON
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer (H/F) - Bordeaux

PYTHON Microsoft Power BI PYSPARK
ASAP
33 - BORDEAUX
24 mois
Voir la mission

Data Scientist

PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

DATA Scientist

DATA
ASAP
79 - Niort
3 mois
Voir la mission
Je trouve ma mission

Les profils de Data scientist PySpark ont postulé à :

Consultant IA

IAM
ASAP
75 - PARIS
12 mois
Voir la mission

Intégrateur LLM

IMPROMPTU PYTHON Cloud AWS Amazon SageMaker LLM
ASAP
44 - NANTES
12 mois
Voir la mission

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur Python avec expertise en NLP et LLM

PYTHON LLM
ASAP
75 - PARIS
6 mois
Voir la mission

Data Scientist – Life Sciences (H/F)

DATA PYTHON APACHE HADOOP PANDAS TensorFlow
ASAP
69 - LYON
12 mois
Voir la mission

Tech lead Python

PYTHON
ASAP
93 - SAINT-DENIS
36 mois
Voir la mission

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission

DataOps AWS F/H

DATA Cloud AWS Amazon Kinesis AWS LAMBDA
ASAP
92 - BAGNEUX
3 mois
Voir la mission

Data scientist senior

PYTHON APACHE SPARK Cloud AWS
ASAP
59 - CROIX
3 mois
Voir la mission

Data Engineer Cloud AWS

PYTHON HASHICORP TERRAFORM Cloud AWS PYSPARK
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data scientist PySpark disponibles

CV Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist
Benoit-Labre

Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist

  • PARIS
SELENIUM BIG DATA JAVA SQL MYSQL GITLAB Microsoft Azure Machine Learning PYTHON
CV Data Engineer / Data Scientist
Josephine

Data Engineer / Data Scientist

  • LE VÉSINET
PYTHON Data science PANDAS GIT Airflow PYSPARK SQL Google Cloud Platform Cloud AWS DEVOPS
CV Data Scientist PYTHON
Lucas

Data Scientist PYTHON

  • MARSEILLE
PYTHON SQL LINUX DOCKER GIT Microsoft Power BI NODE.JS R
Bientôt disponible
CV Lead Data Scientist - Manager Data Science - 11 ans d’expérience
Romeo

Lead Data Scientist - Manager Data Science - 11 ans d’expérience

  • ISSY-LES-MOULINEAUX
BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA Dataiku Google Cloud Platform Kubernetes DOCKER
Bientôt disponible
CV Data Analyst SQL SERVER
Hassan

Data Analyst SQL SERVER

  • CALAIS
SQL SERVER
Bientôt disponible
CV Data Scientist / Engineer
Ismail

Data Scientist / Engineer

  • PARIS
Data science PYTHON SQL Cloud AWS PYSPARK GIT Microsoft Power BI LLM AZURE Google Cloud Platform
Bientôt disponible
CV Développeur/Data scientist
Jordan

Développeur/Data scientist

  • PARIS
PYTHON C++ JENKINS AGILE CI/CD Jupyter Data science JAVASCRIPT REACT.JS POSTGRESQL
Disponible
CV Data Engineer / Data Modeler / Data Architect
Ahmed

Data Engineer / Data Modeler / Data Architect

  • MALAKOFF
APACHE HADOOP PYTHON SQL APACHE SPARK Data science BIG DATA JAVA Google Cloud Platform DATA HASHICORP TERRAFORM
Disponible
CV Architecte / Tech lead Data
Radji

Architecte / Tech lead Data

  • MASSY
AZURE DATA PYSPARK Snowflake Cloud AWS
Disponible
CV Machine Learning Engineer
Nelly

Machine Learning Engineer

  • PARIS
PYTHON DOCKER SQL SAS CSS Google Cloud Platform HASHICORP TERRAFORM APACHE KAFKA APACHE SPARK
Disponible
Je trouve mon freelance