CV/Mission de Développeur Python pandas freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Marc,
Développeur Python pandas habitant l'Indre-et-Loire (37)

  • Decid BI Architecture système informatique, Sécurité, Ansible, Proxmox, serveurs physiques.
    Jan 2019 - Jan 2021

    • Réalisation de graphiques avec Bokeh en python sur des données stockées dans ElasticSearch alimenté par l’ETL Hop (kettle)
    • Installation serveur Proxmox (virtualisation) sur le réseau local et sur un serveur dédié (SoYouStart-OVH). Création de VMs Debian11. Mise en place de serveurs web et de reverse proxies (nginx) avec le web application firewall ModSecurity.
    • Conception et mise en place d’un réseau avec plusieurs services : sauvegarde, monitoring, serveur de paquets Debian, centralisation des logs : transfert sécurisé en temp réel de fichiers,…
    • Sécurisation du réseau avec des firewall,DMZ, sous-réseaux dédiés, VPN. Suivi des évènements de sécurité en temps réel avec Wazuh et elasticsearch pour les serveurs locaux et distants.
    • Installation des services par des rôles Ansible.
    • Création d’une salle serveurs : rédaction des spécifications des différentes composantes : climatisation, alimentation et régulation électrique, ventilation, monitoring environnemental, monitoring informatique. Recherche de fournisseurs et mise en œuvre.
    05/18 – 07/19 Decid BI
    Confluent plateform Kafka, Zookeeper, Debian 9, Prometheus, ESXi6.0 (6 mois)
    Objectif : assurer la centralisation des logs et des métriques de plusieurs serveurs sur un cluster Kafka.
    • Installation, configuration d’un cluster kafka sur 3 machines physiques et 8 machines virtuelles (dont 3 kafka, 3 zookeeper). Opérations de maintenance sur ce cluster.
    • Configuration d’un serveur de logs avec Rsyslog. Envoi des logs dans un topic Kafka.
    • Utilisation de Kafka Connect pour extraire les données d’une base MySQL
    • Installation d’un serveur Prometheus et d’exporters pour collecter les métriques des JVM, des machines physiques, des tests de disponibilité des serveurs.
    • Développement de tableaux de bord Grafana
    o Projet sur l’utilisation du machine learning pour la prévision de cours de bourse. Traitement de cours collectés sur l’API IG avec les outils python pandas et scikit-learn. Analyse exploratoire, utilisation de méthodes supervisées, tests, recherche d’amélioration des performances. (3 mois)
    o Projet Spark : Présentation sur le rôle de Spark dans les architectures Big Data Lambda et Kappa et focus sur le stockage des données. (2 mois)
    o Projet Analyse de Données Open Data sur les communes de la Région Centre: Recueil des données opendata (avec l’ETL Kettle), redressement échantillon, réduction du nombre de variables, classification par Analyse en Composante Principale (avec le logiciel SPAD), interprétation. (1 mois)
    12/16 – 04/18 Banque Dexia La Défense 16 mois
    Business Objects Data Services, Oracle, BO Designer,TWS, Fermat-Ray, Enablon
    Objectif : avec une équipe de 3 personnes, assurer le chargement correct et la disponibilité des datamarts risque de crédit et risques opérationnels à plus de 180 utilisateurs.
    Contexte : Source des données : Fermat-Ray et Enablon. Turn-over élevé. Exigeances fortes des utilisateurs. Forte volumétrie. Documentation obsolète.
    BODS : cartographie des jobs, analyse d’erreurs, développement.
    Organisation et animation de la réunion hebdomadaire avec les utilisateurs.
    Suivi des projets. Reverse engineering, rétro documentation.
    Gestion des impacts de plusieurs incidents majeurs
    Suivi de la production : organisation du processus selon ITIL. Enrichissement d’une base de connaissances
    Relation (mail, video conférence, téléphone) avec le prestataire polonais hébergeur des données.
    Participation au transfert de compétences vers l’équipe indienne suite à l’externalisation du service

  • Dassault Systèmes
    Jan 2013 - Jan 2016

    Contexte : traitement des données de Neolane (Adobe Campaign) , de Siebel On Demand pour présenter la contribution du marketing au funnel (taux de transformation des contacts marketing en ventes).
    Définition du process d’ETL. Définition de l’architecture en couches spécialisées pour faciliter la modularité, la fiabilité, la maintenabilité, l’efficacité, l’extensibilité.
    Modélisation dimensionnelle.
    Création code Neolane (javascript) pour extraire quotidiennement les données du cloud dans des fichiers csv ou xml.
    Développement des jobs bods pour charger le datamart marketing à partir des fichiers et de tables contenant des données.
    Tests des résultats.
    Livraison des développements en production : utilisation du référentiel central de BODS.
    Interrogation de Siebel on Demand pour rapprochements de données avec données internes.
    Configuration de widgets (technologie interne) basés sur des webservices BO ou sur Exalead pour exposer les données sur l’intranet.
    Participation à des projets visant à améliorer l’environnement BI : monitoring de serveurs, promotion de code, documentation, analyse du repository BODS, migration de schéma oracle…

    Business Objects Data Services, Oracle,Siebel, Neolane,Jira, Exalead, Confluence
  • Decid Bi 5 mois Pentaho Data Integration (Kettle), Postgresql 9
    Jan 2013 - Jan 2013

    Contexte : traitement des avis d’opéré sur le marché des CFD Forex et Indices pour leur comptabilisation.
    Traitement de données contenues dans des mails, des fichiers csv et excel par des flux Kettle et enregistrement dans un datamart sur Posgresql.
    Mise en place de Subversion (SVN) et Jenkins pour le versionning et l’intégration continue

  • Véolia
    Jan 2011 - Jan 2012

    Business Objects Data Services (BODS), Oracle , CC&B
    Contexte : migration d’une application MVS vers l’ERP CC&B d’Oracle (Customer Care and Billing)
    Au sein d’une équipe d’une trentaine de personnes :
    • Réalisation de flux BODS
    • Analyses et corrections d’anomalies.
    • Scripting (python, shell, BODS) pour automatiser les étapes d’une migration partielle de la source vers la cible : enchaînement de script sql, transfert d’objets BODS d’un référentiel à un autre, lancement de jobs…successivement et indifférement sur des environnements linux et windows.
    • Optimisation, restructuration de flux pour répondre aux contraintes de performances.

  • GFI (après rachat d’Ares)
    Jan 2011 - Jan 2011

    Plate-forme Pentaho et ETL open-source : Talend, Kettle
    Talend: vérification de l’adéquation de l’ETL aux exigences d’un client: gestion des contextes, gestion des Blobs, configuration d’un projet, utilisation de java, monitoring des jobs… Utilisation des composants les plus courants.
    Pentaho: Installation complète d’une plate-forme Pentaho CE sur linux Ubuntu server (machine virtuelle VMWare sur VMWare Server 2.0).Mise en œuvre des principaux concepts d’un datawarehouse: dimensions, faits, hiérarchies… sur une application de suivi de consommation électrique et de température (1 mois)

  • ARES – client : filiale informatique d’un groupe 22 mois
    Jan 2009 - Jan 2011

    Business objects Data Services (BO Data Integrator), Universe designer, Webi, Oracle 10g
    Dans un groupe de 2400 personnes du secteur du bâtiment, plusieurs sociétés, 60 agences.
    Développement d’un datawarehouse pour faire des analyses par structures opérationnelles (agence …) ou fonctionnelles (réseaux), par salarié, par période pour les domaines suivants :

     Devis : gestion du portefeuille de devis. Evolution du portefeuille entre 2 dates : taux de réussite, qualification du portefeuille. Historique d’un devis.

     Salariés : historique de l’évolution d’un salarié selon son salaire, son statut, son ancienneté. Intégration des données à partir d’un annuaire interne et du progiciel de paie Arcole basé sur Oracle.

     Organisation en réseaux du groupe (matricielle): présentation des indicateurs commerciaux et budgetaires selon une hiérarchie opérationnelle ou fonctionnelle.

     Gestion de parc : reporting sur la gestion de parc véhicules, informatiques, téléphoniques et outillage. Incorporation des fichiers Orange et Total dans le datawarehouse et création d’indicateurs sur la consommation par véhicule, par personne, par agence, par société. Suivi de la réservation des biens.

    Mise en place d’une organisation pour maîtriser le développement et l’administration du datawarehouse
     Rédaction de spécifications détaillées et des tests
     Analyse et modélisation en étoile des processus de gestion : dimensions historisées (SCD2), hiérarchies.
     Documentation des jobs d’intégration Data Integrator: vue d’ensemble et vue détaillée
     Documentation des états. Développement d’états intermédiaires pour auto-contrôle par les utilisateurs.
     Création et respect de procédures pour développer le datawarehouse, tester, recetter, mettre en production
     Modification et développement de la structure de la base de données du datawarehouse
     Réorganisation des univers et états existants.

  • ARES
    Jan 2008 - Jan 2009

    Avant-Vente:
     Participation à la réalisation d’offres de prix.
     Réalisation de maquettes de présentation avec BODS, BO xi3.1, Talend,

    Excel 2007 :
    Refonte d’une application de gestion prévisionnelle de l’occupation des collaborateurs (1500 lignes de code) :
    Destinée aux responsables de service et directeurs de projets : amélioration de l’interface de saisie, fiabilisation du calcul d’indicateurs, multiplication des possibilités de tri …
    Suivi des indicateurs des filiales étrangères d’une banque :

    Environnement: JasperReport...
  • Decid BI
    Jan 2001 - Jan 2022

    • Développement de flux avec Hop pour normaliser des adresses (norme postale, géolocalisation)
    • Installation d’Addok, un outil opensource pour faire du geocodage utilisant redis pour stocker les données en RAM. Requêtage en python et intégration dans l’ETL Hop.
    • Requêtes sur openstreetmap pour rechercher les modifications de nom de rues en France.
    • Installation de gitlab et utilisation pour le versionning du code.

    ETL Apache Hop (top level project), python, openstreetmap,opendata, gitlab
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Développeur Python pandas, Missions Développeur Python pandas, Développeur Python pandas freelance

Les nouvelles missions de Développeur Python pandas

Developpeur Full Stack Python & React

SQL PYTHON REACT.JS
ASAP
Paris / 92 et Télé travail
6 mois
Voir la mission

Développeur logiciel

PYTHON .NET HASHICORP TERRAFORM AMAZON AWS ASP SQL SERVER
ASAP
75 - Paris
6 jours ouvrés
Voir la mission

TECH LEAD DATA

PYTHON APACHE SPARK GITLAB SQL TERADATA
ASAP
69 - LYON
6 mois
Voir la mission

Développeur PYTHON Webscraping

PYTHON SELENIUM Google Cloud Platform
ASAP
75 - Paris
3 mois
Voir la mission

Développeur PYTHON

PYTHON PANDAS
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Data/BI

SAP BO DATA PYTHON PANDAS
ASAP
35 - Rennes
3 mois
Voir la mission

Développeur Python Senior

PYTHON
ASAP
92 - Puteaux
2 mois
Voir la mission

Développeur Python

PYTHON Jupyter
ASAP
75 - Paris
3 mois
Voir la mission
Je trouve ma mission

Les profils de Développeur Python pandas ont postulé à :

Data engineer

SQL PYTHON AMAZON AWS APACHE SPARK
03/03/2025
91 - MASSY
3 mois
Voir la mission

DATAVIZ

DATA DATAVIZ Microsoft Power BI Dataiku Tableau
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur/DevSecOps IA

PYTHON APACHE SPARK DevSecOps SONARQUBE
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Intégrateur LLM

IMPROMPTU PYTHON Cloud AWS Amazon SageMaker LLM
ASAP
44 - NANTES
12 mois
Voir la mission

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur Python avec expertise en NLP et LLM

PYTHON LLM
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur Python

SQL PYTHON ENTERPRISE ARCHITECT
ASAP
92 - NANTERRE
12 mois
Voir la mission

Data Scientist – Life Sciences (H/F)

DATA PYTHON APACHE HADOOP PANDAS TensorFlow
ASAP
69 - LYON
12 mois
Voir la mission

Tech lead Python

PYTHON
ASAP
93 - SAINT-DENIS
36 mois
Voir la mission

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur Python pandas disponibles

CV Développeur Full-Stack (Angular - Python)
Alexandre

Développeur Full-Stack (Angular - Python)

  • LILLE
PYTHON Angular PANDAS DOCKER
CV Développeur PYTHON
Denis

Développeur PYTHON

  • MELUN
PYTHON REACT.JS POSTGRESQL DOCKER DJANGO Angular Cloud AWS GO Kubernetes Google Cloud Platform
Bientôt disponible
CV Lead Data Scientist - Manager Data Science - 11 ans d’expérience
Romeo

Lead Data Scientist - Manager Data Science - 11 ans d’expérience

  • ISSY-LES-MOULINEAUX
BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA Dataiku Google Cloud Platform Kubernetes DOCKER
Bientôt disponible
CV Senior Data Engineer
Minh Dung

Senior Data Engineer

  • BEZONS
SQL Airflow GIT TDD SCALA APACHE SPARK PYTHON JAVA Snowflake Databricks
Bientôt disponible
CV AI Engineer
Lionel

AI Engineer

  • DAMMARIE-LES-LYS
Natural Language Toolkit JAVA PYTHON Jupyter PANDAS J2EE SQL Angular MYSQL DATA
Disponible
CV Senior Data Scientist - Machine Learning Engineer
Derrick

Senior Data Scientist - Machine Learning Engineer

  • Antony
PYTHON R Cloud AWS Google Cloud Platform AZURE
Disponible
CV Data Engineer
Arfang

Data Engineer

  • PARIS
APACHE SPARK Databricks PYSPARK Cloud AWS DOCKER JENKINS AZURE HASHICORP TERRAFORM ELK Kubernetes
Disponible
CV Data Scientist/Engineer/Analyst/développeur
Brahim

Data Scientist/Engineer/Analyst/développeur

  • PARIS
PYTHON SQL Google Cloud Platform Databricks Microsoft Power BI Tableau GIT JAVA Dataiku DOCKER
Disponible
CV Senior Développeur Fullstack Java
Kotonirina Jean De Dieu

Senior Développeur Fullstack Java

  • VITRY-SUR-SEINE
JAVA Spring Boot REACT.JS Angular DOCKER JENKINS REDHAT OPENSHIFT POSTGRESQL MONGODB Cloud AWS
Disponible
CV Data Scientist Python
Gabriel

Data Scientist Python

  • ANTONY
PYTHON DATA PANDAS Deep Learning Cloud AWS MLflow GIT Github SQL DOCKER
Disponible
Je trouve mon freelance