CV/Mission de Data scientist PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Gilles,
Data scientist PySpark habitant les Yvelines (78)

  • Ingénieur Machine Learning

    Generali Vie, DSI, Innovation and Cognitive Solutions
    Jan 2021 - Jan 2021

    Surpaiement des prestations de dossiers maladies (Prévoyance Collective)
    - Etude des déperditions en collaboration avec le cabinet McKinsey : analyse des causes racines et chiffrage
    - Développement d’un outil de scoring (PySpark et Python) pour détecter automatiquement les déperditions
    - Création de pipelines de traitement de données de plusieurs sources (base Oracle, Hadoop et Datamart) dans un
    environnement Cloudera
    - Analyse de la qualité des données (couverture et données manquantes) pour l’intégration de nouvelles sources de données dans un système d’aide à la décision (application métier)
    Projet de détection de fraude interne et externe
    - Framework de détection de fraude (interface visuel Linkurious) pour investigation sur la fraude
    - Création de pipeline de données avec des jobs Dataiku (PySpark et Python) à partir de tables Hive
    - Ingestion des données d’Hadoop vers un serveur Neo4j avec des scripts Unix (ordonnanceur Dollar Universe et stream Kafka)

    Environnement : Python (Numpy, Scikit learn, Pandas), PySpark, Dataiku, Cloudera (Hadoop), Hue, Hive, Impala, Oracle, SQL, Neo4j, Unix, Kafka, Git, Gitlab
  • Machine Learning Data Associate

    Bucarest, Roumanie
    Jan 2020 - Jan 2021

    Amazon, Alexa Data Services
    • Optimisation des modèles de reconnaissance de la parole et de part-of-speech tagging à partir de plusieurs algorithmes
    : SGD, Adam, Adagrad, Adadelta et RMSProp
    • Développement d’un pipeline de données ETL et de déploiement de scripts dans AWS grâce à Pyspark, Kafka, EC2,
    Amazon S3, AWS Lambda et Jenkins
    • Assistance dans la transcription et annotation des données audio d’utilisateurs francophones

    Environnement : AWS, Pyspark, Kafka, EC2, Amazon S3, AWS Lambda, Jenkins
  • Data scientist

    Bucarest, Roumanie
    Jan 2020 - Jan 2020

    Fordaq, département IT
    • Business Transformation : Benchmark de solution technologiques (Business Intelligence/Analytics) pour monitorer et évaluer les ventes de souscription d’abonnement Fordaq
    • Préparation de dataset à partir de base de données MSSQL (connexion de la base de données grâce à sqlite3 à un environnement de programmation Python)
    • Analyse de sentiment des messages du chat Fordaq avec des modèles SVMs, Random Forests, et Naive Bayes

    Environnement : Python (sqlite3, Numpy, Sci-kit, Pandas), Tableau, MSSQL
  • Data Analyst

    Limoges, France
    Jan 2018 - Jan 2019

    Legrand, département production, Amélioration de process
    • Construction d’un modèle statistique du fonctionnement d’un entrepôt de stockage pour augmenter la productivité et réduire les pertes de produits lié à l’obsolescence
    • Rédaction d’un rapport d’analyse, et présentation des résultats (à l’aide du logiciel TABLEAU). Le rapport peut être très bien lu par des partenaires interne et externe et à pour but de donner des indications claires pour comment améliorer la gestion des produits

    Environnement : Tableau, Access, Python
  • Responsable technique d’application

    SNCF (Entité Réseau ferré)
    Jan 2018 - Jan 2019

    Etablissement et suivi de la gestion de montée de versions, de différents environnements (Integration, MCO, Formation , Préproduction, Production) au moyen de chronogramme
    Coordination entre différentes équipes (production, métier) pour des interventions ponctuelles
    Suivi des accès des habilitations des utilisateurs (interne et clientèle)

    Environnement : CITRIX, LINUX, ORACLE, VTOM
  • Intégrateur d’application

    CNP
    Jan 2015 - Jan 2017

    Création de scripts pour l’automatisation de l’intégration des dsx (pour la V8 en Unix et pour la V11en Linux)
    Mise en place des composants dans les environnements d’intégration et recette
    Demande de modification de base si nécessaire
    Lancement des tests
    Mise en place en production après validation des études.
    Suivi de la mise en exploitation via CTRLM

    Environnement : CTRLM (V8), SCRIPT (Unix Linux), Datastage serveur (V8), Datastage PX (V11), Oracle (9.5)
  • BPIFRANCE
    Jan 2011 - aujourd'hui

    En relation avec les études et la production, prise en compte des besoins de livraisons des applications commerciales (OAD, BCP CRM) et risques (BSR, DWO et BSRsa) pour l’espace d’intégration
    Vérification de la conformité entre les documents d’exploitation, de livraison pour l’intégration et le besoin exprimé
    Contrôle et installation des composants pour la recette
    Déroulement de la stratégie de recette
    Préparation des livrables pour la production
    Création du document de livraison vers la production (ordre chronologique d’installation, détail de l’installation, cas particuliers…).
    Création du plan de test technique
    Suivi de la mise en exploitation

    Environnement t : CTRL M, SCRIPT (cmd), WINDOWS Seven, WINDOWS XP, Chrome, Datastage serveur (8.7), Datastage PX, Oracle (9.5) DB2 (v10), WAS, JAVA, TOMCAT
  • CNP
    Jan 2009 - Jan 2010

    Evolution et maintenance sur différents projets (CDS – ETC – EMB…) avec évolution de la documentation suivant la norme CMMI
    Suivi d’exploitation des chaînes existantes de l’équipe DWH
    Reprise et mise en place du projet OVI comprenant réception de fichier venant d'Espagne, mise au point avec les équipes, enrichissement des données et insertion en base pour les utilisateurs avec en complément le projet FER (Flux Externe de Régulation : fichier de code de point de vente)
    Développement du projet CAE ( restitution du CApital Economique)
    Initialisation et enrichissement d’un référentiel pour l’application CCA (Cube des Comptes Actuariat)
    Suivi de la mise en intégration, recette
    Création de dossier technique

    Environnement : WINDOWS XP, Unix, Datastage PX (7.5.1.A), Datastage serveur (7.5.3),Oracle (9.5) via Toad
  • CACEIS
    Jan 2008 - Jan 2009

    Analyse technique du datamart TA (Transfert Agent)
    Migration de l’application de Datastage V6 vers DatastageV8
    Mise en place script shell pour le lancement des jobs (nuit, événementiels, technique)
    Mise en place environnent Qual, Prod(Coté datastage, Unix)
    Réalisation de schéma, dossier d’exploitation, dossier de monitoring
    Suivi qualification et production

    Environnement : WINDOWS XP, Unix, Datastage Server 6 et 8, Oracle via PL/SQL
  • DARTY
    Jan 2008 - Jan 2008

    Analyse fonctionnelle des besoins des utilisateurs pour l’élaboration de rapports décisionnels sur la gestion de l’occupation de chaque personne s’occupant du B2B.
    Modélisation des tables de réception ODS, dataware et datamart
    Spécification technique détaillée
    Développement (datastage) des interfaces entre SIEBEL (pourvoyeur de données), l’ODS, le dataware et le datamart, création de scripts Unix pour effectuer les liens.
    Suivi de la mise en recette
    Réalisation de schéma et dossier d’exploitation

    Environnement : WINDOWS XP, Unix, Datastage Server 7.5, DB2 via TOAD, SIEBEL OSEO (10/2006 – 04/2008)
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data scientist PySpark, Missions Data scientist PySpark, Data scientist PySpark freelance

Les nouvelles missions de Data scientist PySpark

Senior Data Engineer

GIT Cloud AWS
ASAP
Télétravail
12 mois
Voir la mission

Data engineer senior

SONARQUBE SCALA Microsoft Power BI Cloud AWS PYSPARK
ASAP
93 - NOISY-LE-GRAND
24 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Développeur Fullstack PYTHON / ANGULAR

PYTHON Angular REACT.JS Vue.js
ASAP
75 - Paris
12 mois
Voir la mission

DATA ENGENEER

BIG DATA PYTHON APACHE HADOOP CI/CD
ASAP
75 - Paris
3 mois
Voir la mission

Data Engineer

SQL PYTHON JENKINS GITLAB Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

PYSPARK PYTHON
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer (H/F) - Bordeaux

PYTHON Microsoft Power BI PYSPARK
ASAP
33 - BORDEAUX
24 mois
Voir la mission

Data Scientist

PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

DATA Scientist

DATA
ASAP
79 - Niort
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data scientist PySpark disponibles

CV Data Scientist PYSPARK
Ange

Data Scientist PYSPARK

  • FONTENAY-AUX-ROSES
PYSPARK PYTHON AZURE SQL
CV Data Scientist PYSPARK
Sarra

Data Scientist PYSPARK

  • Béja
PYSPARK ECLIPSE PAPYRUS MICROSOFT BI SAS BIG DATA PL SQL APACHE HADOOP APACHE KAFKA
CV Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist
Benoit-Labre

Data governance | Architect data | Data scientist | IA | Machine learning | AWS | QA automation | BI | Data strategist

  • PARIS
SELENIUM BIG DATA JAVA SQL MYSQL GITLAB Microsoft Azure Machine Learning PYTHON
CV Data Engineer / Data Scientist
Josephine

Data Engineer / Data Scientist

  • LE VÉSINET
PYTHON Data science PANDAS GIT Airflow PYSPARK SQL Google Cloud Platform Cloud AWS DEVOPS
Bientôt disponible
CV Data Analyst Full-Stack
Louis

Data Analyst Full-Stack

  • PARIS
DATA SQL PYTHON TABLEAU SOFTWARE Data science DATAWAREHOUSE APACHE SPARK Google Cloud Platform Cloud AWS
Bientôt disponible
CV Analyste technico-fonctionnel
Laure

Analyste technico-fonctionnel

  • SAINT-ÉTIENNE-DE-CROSSEY
PHP SQL JAVASCRIPT PYTHON Data science JIRA
Bientôt disponible
CV Lead Data Scientist - Manager Data Science - 11 ans d’expérience
Romeo

Lead Data Scientist - Manager Data Science - 11 ans d’expérience

  • ISSY-LES-MOULINEAUX
BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA Dataiku Google Cloud Platform Snowflake Kubernetes DOCKER
Bientôt disponible
CV Consultant Data BI - Certified MICROSOFT Fabric Analytics & POWER BI (Special offer the first two months)
Franck

Consultant Data BI - Certified MICROSOFT Fabric Analytics & POWER BI (Special offer the first two months)

  • COLOMBES
Microsoft Power BI SQL DAX Azure Data Factory MICROSOFT POWER QUERY SQL SERVER SCRUM PYTHON Azure Synapse INFORMATICA
Disponible
CV Data Scientist Python
Gabriel

Data Scientist Python

  • ANTONY
PYTHON DATA PANDAS Deep Learning Cloud AWS MLflow GIT Github SQL DOCKER
Disponible
CV Data Scientist/Engineer/Analyst/développeur
Brahim

Data Scientist/Engineer/Analyst/développeur

  • PARIS
PYTHON SQL Google Cloud Platform Databricks Microsoft Power BI Tableau GIT JAVA Dataiku DOCKER
Disponible
CV Data Scientist SQL
Charlotte

Data Scientist SQL

  • CERGY
Dataiku SQL PYTHON GITLAB Google Cloud Platform Microsoft Power BI Cloud AWS DOCKER Kubernetes AZURE
Disponible
CV Data Engineer
Jamila

Data Engineer

  • COLOMBES
APACHE SPARK PYSPARK SCALA PYTHON BIG DATA APACHE HADOOP Google Cloud Platform
Disponible
Je trouve mon freelance