Data scientist Amiens : Trouvez vite les meilleurs freelances disponibles

Je dépose une mission gratuitement
Je dépose mon CV

Trouvez votre freelance à Amiens

Les derniers profils de Data scientist Amiens

CV Senior Data Scientist/Computer vision
Noureddine

Senior Data Scientist/Computer vision

  • AMIENS
Data science DATA PYTHON SQL Google Cloud Platform
CV Data Scientist SQL SERVER
Loïc

Data Scientist SQL SERVER

  • AMIENS
SQL SERVER C++ SQL PHP AGILE PYTHON BIG DATA C UML DATACENTER
CV Data Analyst PYTHON
Jan

Data Analyst PYTHON

  • Amiens
PYTHON BASH R PERL JAVASCRIPT MYSQL
CV Data Analyst PYTHON
Alexis

Data Analyst PYTHON

  • Long
SQL JAVASCRIPT PYTHON POSTGRESQL JQUERY HTML CSS Jupyter DJANGO
Je trouve mon freelance
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Trouvez un Data scientist Amiens en freelance

Notre base de 155515 CV vous permet de trouver rapidement un Data scientist Amiens freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.

Exemple de missions de Kokoé,
Data Scientist freelance

  • Data Scientist R Shiny

    PROPARCO – Groupe AFD
    2023 - aujourd'hui

    Projet : Application Shiny de suivi du plan d’affaires des sociétés en temps réel
    • Développer dans les application Shiny de nouvelles fonctionnalités, visualisation et tableau de bord
    • Fiabiliser les données amonts avant intégration et produire les tableaux de bords de suivi financier
    • Traitement et manipulation de données en langage R, SQL

    Technologies utilisées : R, Shiny, packages tidyverse, dplyr, SQL
  • Product Owner Data

    AXA-GIE/DSI
    Jan 2021 - Jan 2023

    Projet 2 : Assurer la BAU et la gestion de projet de 4 applications métiers
    Assurer le bon fonctionnement des applications en BAU, répondre aux demandes d’évolution
    Business et techniques, diminuer l’impact des incidents. Être en support du déploiement d’une
    nouvelle application dans l’environnement AXA.
    • Migration technique de la plateforme applicative Openshift de la version 3 à 4
    • Mise en production : Coordination entre les équipes de production, infra et DevOps
    • Coordination avec les équipes informatiques des entités pour assurer la continuité des services et
    la gestion des incidents niveau L1
    • Suivi de la conformité des applications avec les standards du Groupe et la gouvernance IT
    • Coordination entre les équipes infra, solution providers, et la DSI pour le déploiement d’une
    nouvelle application dans l’environnement AXA
    Projet 1: Migration des outils de calculs du métier de la ré-assurance
    Assurer le bon fonctionnement des outils de calibration sur les postes des utilisateurs pour anticiper
    le dé-commissionnement des applications vers le cloud
    • Rétro-ingénierie des applications en R pour identifier les packages et dépendances
    • Livrer les packages R nécessaires au bon fonctionnement des applications aux entités (pour une
    vingtaine de pays à l'international)
    • Suivre la phase de tests des applications par les entités
    • Assister les entités pour l'usage des applications sur leur poste en local
    • Assister le déploiement en local des nouvelles applications en Shiny

    Technologies : ITIL V4, Langage R, Python, API Rest, Openshift, Git, PostgreSQL, Azure, AWS
  • Data Scientist R Shiny

    Association Handi’ Cats
    Jan 2020 - Jan 2021

    Projet : Application R Shiny de carnet de santé numérique pour les protégés
    • Créer une application R Shiny pour le suivi médical des animaux protégés
    • Suivre les rappels de vaccins et les médications en cours
    • Créer une base de données des consultations et analyses médicales réalisées

    Technologies utilisées : MySQL, R, Shiny, manipulation de données (tidyverse)
  • Data Scientist Qualité de données

    COVAGE
    Jan 2019 - Jan 2020

    Entité : Direction des Systèmes d’Information
    Projet : Data Excellence Program
    Redresser la qualité des données d’équipements et d’adresses dans le cadre du déploiement de la
    Fibre pour fluidifier les échanges du processus de commandes
    • Contrôler la qualité de données en termes de format et de contenu
    • Investiguer les sources d’erreurs/informations incomplètes puis les transférer aux
    correspondants métier ou aux équipes DSI
    • Réaliser les Dashboards hebdomadaires des statistiques de qualité de données
    • Faire les corrections en masse en base de données à partir des règles de gestion

    Technologies utilisées : MySQL, SQL, Power BI, suivi des tickets sur Microsoft Azure DevOps Gains : Évolution du ratio de prises déployées conformes passant de 65% à 82%
  • Data Scientist

    ORANGE
    Jan 2016 - Jan 2019

    Entité : Direction de l’Intervention (DI)
    Projet 3 : Prédiction des ré-interventions SAV post production (DP30)
    Prédire le risque de ré-intervention (SAV) suite à une mise en production d’une nouvelle ligne sur le
    marché GP du support Cuivre, domaine Retail et Wholesale.
    • Formaliser la problématique métier et définir la démarche méthodologique
    • Réaliser le pré-processing : créer de nouveaux indicateurs, recodage des modalités, imputation
    des valeurs manquantes, échantillonnage
    • Construire les modèles de machine learning : Lasso, forêts aléatoires, XGBoost
    • Optimiser les hyper-paramètres de ces modèles via la méthode de Grid Search
    • Analyser les causes racines : classification mixte des observations
    • Livrer le package R contenant l’ensembles des fonctions développées, commentées et la
    documentation qui détaille toutes les étapes de traitement
    Technologies utilisées : Hadoop, datalab, Hive, manipulation des tableaux de données sous R
    (tidyverse), apprentissage supervisé (Random Forest, Xgboost), contrôle de version via Git
    Gains : Détection de 17% du total de réitérations SAV soit 17000 SAV évitées/an
    COVAGE
    Data Scientist Qualité de données Oct. 2019 – Juin 2020 (8 mois)
    Entité : Direction des Systèmes d’Information
    Projet : Data Excellence Program
    Redresser la qualité des données d’équipements et d’adresses dans le cadre du déploiement de la
    Fibre pour fluidifier les échanges du processus de commandes
    • Contrôler la qualité de données en termes de format et de contenu
    • Investiguer les sources d’erreurs/informations incomplètes puis les transférer aux
    correspondants métier ou aux équipes DSI
    • Réaliser les Dashboards hebdomadaires des statistiques de qualité de données
    • Faire les corrections en masse en base de données à partir des règles de gestion
    Technologies utilisées : MySQL, SQL, Power BI, suivi des tickets sur Microsoft Azure DevOps
    Gains : Évolution du ratio de prises déployées conformes passant de 65% à 82%
    Projet 2 : Performance du défaut de production (DP15)
    Analyses croisées du taux de ré-intervention SAV post production (xDSL). Développer des
    Dashboard via Qlik Sense à destination des opérationnels en UI
    • Collaborer avec les data scientist des directions transverses à la DI, fournisseurs de données /
    experts fonctionnel : DERS (Réseau), DMGP (Marketing)
    • Data Modeling: appairage des sources de données, dictionnaire de données
    • Développer les flux de données pour enrichir les caractéristiques de processus de raccordement
    des nouvelles lignes: intervention de production/tests diagnostics/signalisation client/données
    techniques de la qualité service réseau
    • Industrialiser la production de rapports d’analyses sous l'outil Qlik Sense
    Technologies utilisées : Hadoop, Hive, SQL, Qlik Sense, ordonnancement via Oozie

    Technologies utilisées : Hadoop, Hive, SQL, Qlik Sense, ordonnancement via Oozie
  • Data Scientist

    ENEDIS
    Jan 2015 - Jan 2016

    10/2015 - 9/2016
    Entité : Pôle Données de la DSI, département LAQ
    Projet : Maintenance prédictive de serveurs
    Prédire les futures pannes de serveurs informatiques
    • Collecter et structurer les données de fonctionnement des serveurs
    • Classifier les typologies d’évènements à partir des messages textes
    • Construire un modèle de régression logistique et calculer le risque de pannes

    Technologies utilisées : Python, Spark, hadoop, SQL, pandas, numpy, Scikit learn, R language
  • Data Scientist

    SYNALTIC
    Jan 2015 - Jan 2015

    Projet : Segmentation clientèle d’un réseau de pharmacies
    • Collecter et intégrer dans le système distribué l’historique des données d’achats
    • Classifier les caractéristiques d’achats et profils client par la méthode «K-Means»

    Technologies : Hadoop, Spark, Hive, Scala, Python, Talend, postgreSQL, Tableau
  • aujourd'hui

    Projet 1 : Prévision des flux d’intervention des techniciens
    Fiabiliser les prévisions d’activités afin d’anticiper l’adéquation activité/ressource optimale
    : fonctionnement nominal, entraide, gestion de crise.
    • Collaborer avec les data scientists des directions DERS et DSBI, fournisseurs des données
    d’impacts de foudres et la météo prévisionnelle à 72h
    • Phase POC : Modéliser les flux d'intervention en fonction de l’historique des flux et des facteurs
    exogènes (météo et calendrier) et valider les modèles de prévision sur 4 flux SAV/ PROD des
    domaines Grand Public et FTTH sur 5 unités d’interventions (UI) pilotes
    • Phase industrialisation : Automatiser la collecte de données et les étapes de modélisation sous R
    pour produire les modèles de prévisions sur l’ensemble des 27 unités d’interventions reparties
    en régions en France
    • Intégration des modèles de prévisions dans l’outil de pilotage de l’activité d’intervention sur
    Qlik Sense

    Technologies utilisées : Hadoop, datalabs C3P, Hive, SQL, langage R, apprentissage supervisé (régression multivarié) et méthodes de séries chronologiques Gains : Réduction des écarts aux prévisions par rapport aux valeurs réels inférieurs à 12% contre 20% pour les solutions existantes en UI
Voir le profil complet de ce freelance