CV PYTHON : Trouvez votre consultant indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils PYTHON connectés

CV Data Analyst
Siham

Data Analyst

  • PARIS
SQL PYTHON EXCEL JAVA SCALA BI Microsoft Power BI DATA BIG DATA AZURE
Disponible
CV Data Analyst
Marouane

Data Analyst

  • ÉPINAY-SUR-SEINE
EXCEL Google Cloud Platform SQL TERADATA TABLEAU SOFTWARE QLIKVIEW PYTHON
CV Administrateur système
Mahamadou

Administrateur système

  • CORBEIL-ESSONNES
GLPI WINDOWS 10 VMWARE WINDOWS ACTIVE DIRECTORY McAFEE GRAFANA ZABBIX LINUX CISCO
CV EXPERT SQL & PL/SQL
Yann

EXPERT SQL & PL/SQL

  • Poigny La Foret
SQL PL SQL BUSINESS OBJECTS ORACLE SAP BI POSTGRESQL
Disponible
CV Consultant Expert Solution Dataiku & Alteryx
Pape

Consultant Expert Solution Dataiku & Alteryx

  • PARIS
DATA WINDOWS UNIX SQL PYTHON Google Cloud Platform BUSINESS OBJECTS BIG DATA APACHE SPARK Microsoft Power BI
Disponible
CV Ingénieur de développement
Kader

Ingénieur de développement

  • RILLIEUX-LA-PAPE
PYTHON .NET ANDROID SQL SQL SERVER MYSQL PHP PL SQL
Disponible
CV Lead Data Scientist - Manager Data Science - 11 ans d’expérience
Romeo

Lead Data Scientist - Manager Data Science - 11 ans d’expérience

  • ISSY-LES-MOULINEAUX
BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA Dataiku Google Cloud Platform Kubernetes DOCKER
Bientôt disponible
CV Ingénieur de développement C++
Jawher

Ingénieur de développement C++

  • SARTROUVILLE
C++ C
Disponible
CV Business Analyst AMOA
Issam

Business Analyst AMOA

  • PARIS
AGILE HP ALM SQUASH TM PROJECT MANAGEMENT OFFICE
Disponible
CV Product Owner / Chef de projet digital senior
Hamdi

Product Owner / Chef de projet digital senior

  • MONTROUGE
PROJECT MANAGEMENT OFFICE AGILE JIRA CONFLUENCE WEBSERVICES MOA SCRUM SAFE SQL
Disponible
Je trouve un CV PYTHON
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des missions de Takfarinas,
freelance PYTHON habitant Paris (75)

  • Consultant Développeur Python (API RESTFUL/data engineering )

    chez Société Générale (GTS/TSI) en région parisienne
    Jan 2022 - aujourd'hui

    Contexte Fonctionnel:
    Dans le cadre de la migration du produit GDTA dont l' objectif est de fournir aux utilisateurs (ingénieurs DBA)
    un catalogue d’ APIs qui leurs permettent de gérer l' ensemble des base de données de productions qu’utilisent les
    différentes entités de la société générale en terme de référencement ou bien décommissionnement ainsi que leurs
    différentes caractéristiques techniques(service, utilisateurs, hosts, applications)
    La migration consiste à changer le type de base de donnée sur lequel se base le nouveau produit GDAT, le
    changer à partir sybase vers pgsql

    Rôles:
    1. Développement CRUD APIs REST du produit GDAT
    2. Ajout de tests unitaire
    3. Review de code et validation de pull request
    4. Migration de données à partir de l’ancien GDAT (Sybase) vers le nouveau GDAT(Pgsql)

    Environnement technique : ■ API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira ■ Sqlalchemy, Git, Docker, Kubernetes, Jenkins, PGadmin, sybase ■ Méthodologie: AGILE
  • Consultant Développeur Python (API RESTFUL)/DevOps/data engineering

    chez BNP Paribas Partners for innovation (BP2I en région parisienne (Montreuil)
    Jan 2021 - Jan 2022

    Contexte Fonctionnel:
    Dans le cadre du développement du produit Delphix (Delphix est leader de la virtualisation et de l’anonymisation
    des données. Dans une économie numérique où chaque entreprise est amenée à gérer des données (« Every Company
    is a Data Company »), Delphix offre à ses clients la capacité d’accélérer le développement applicatif, de sécuriser les
    données sensibles et de faciliter les migrations vers le Cloud en éliminant les contraintes liées à la gestion des données)
    identifié comme livrable prioritaire dans la roadmap du CCC, l’objectif est l'intégration rapide et livraison rapide du
    produit dans le cloud IBM dMZR
    Mission:
    Développement et industrialisation de playbook Ansible / Terraform et scripts Python dans un contexte Cloud avec
    mise en place d'une plateforme de Web services à fin de l'intégrer dans le CCC pour qu’elle soit exploitable par la
    marketplace
    Rôles:
    Développement from scratch du web service exposé via un swagger contenant les différentes APIs REST utilisées entre
    autre soit pour exploiter les différents service fournit par le produit Delphix et aussi pour enregistrer les différents
    objets Delphix dans le référentiel delphix(data model)
    Définition et design sous forme d un data model du référentiel delphix via des base de données oracle
    Design et architecture de la stack technique du web service.
    Développement CRUD APIs REST du web service via le swagger.
    Utilisation des services docker pour faciliter les déploiement sous forme d' image docker de la plate-forme web
    services.
    Intégration des engine dephix sous forme d' images docker dans des COS IBM .
    Interaction avec le PO pour définir les priorité des différentes tâches et aussi pour détailler les différentes story
    Gestion des différents credentials utilisés par la plate-forme web service via les services cyberark.
    Participation dans l' implémentation de la chaîne CI/CD .
    Environnement technique :
    ■ API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira
    ■ Sqlalchemy, Git, Docker, Kubernetes, Jenkins, PGadmin, Oracle, ansible, terraform
    ■ Méthodologie: AGILE

  • Consultant Développeur Python (API RESTFUL)/DevOps/data engineering

    chez Société Générale en région parisienne
    Jan 2019 - Jan 2021

    Contexte Fonctionnel:
    Développement et industrialisation de playbook Ansible et scripts Python dans un contexte Cloud
    avec mise en place d'une plateforme de Web services
    Projet 2 LUCID: Depuis Mars 2020
    Le projet LUCID (Large Unified Cluster Integration Data) à deux objectifs :
    1- Mettre à la disposition de l’ensemble de la société générale un cluster big data mutualisé .
    2- Mettre à disposition des développeurs un catalogue d’APIs entièrement automatisé qui va leur
    permettre de créer des ressources(Hive, Kafka, Hdfs, Yarn) sur ce cluster en quelques minutes.
    J’ai développé le produit LUCID (From scratch) à partir de sa phase P.O.C (Proof Of Concept)
    Jusqu’à sa mise en production et industrialisation pour ensuite le maintenir et le faire évoluer du
    coup J' ai développé dans un premier temps des APIs qui permettent de créer des répertoires sur le
    cluster hadoop dans un deuxième temps des Apis qui permettent de créer des bases de données hive
    puis des topics kafka, j ai développé ces APIs en langage python elles étaient hébergées sur
    kubernetes, ces Apis sont asynchrones elles font appel à un orchestrateur qui est apache airflow et
    pour exécuter les commandes sur le cluster big data l'orchestrateur airflow faisait appel à des
    playbook ansibles.

  • Projet 1 BAAS

    Jan 2019 - aujourd'hui

    Objectif : Fournir aux développeurs un cluster big data en quelques minutes pour démarrer
    des projets de migration ou bien faire des POCs ou tester des nouvelles versions sur ces clusters.
    J’ai fais du développement évolutive et corrective d’APIs de l’outil BASS(Big Data As Service) dont
    l’objectif est d’offrir la possibilité aux utilisateurs dont le coeur du métier est le big data de
    provisionner/gérer/commissioner des clusters virtuels (Cloud privé) hadoop de distribution Hortonworks et
    Cloudera en quelque minutes à la place de quelques semaines et de leur offrir aussi la possibilité
    d’ajouter/supprimer des users unix et aussi installer les services HUE dans un cluster
    Mission principale:
    ● Développement de nouvelles features sur le swagger.
    ● Deploiement d'infrastructure : airflow, Ansible, AWX
    ● Gestion et suivi des incidents remonté par les utilisateurs
    ● Faire des MEP (Mise En Production)
    ● Revue de code.
    ● Industrialisation du micro service de création d’outils big data basé sur du airflow pour le compte du
    produit LUCID
    ● Amélioration des process CI/CD en automatisant les différents déploiements sur les différents control
    plane (DEV/UAT/PROD)
    ● Assurance du support et résolution d'incidents
    ● Contribution à la documentation fonctionnelle et technique
    ● Faire des présentations aux clients à chaque fin de sprint(présentation de nouvelles fonctionnalités)
    ● Aider le PO (Product Owner) à faire des User Story.
    Contexte technique:
    API REST en Python 3(Django, Flask connexion, Flask-RESTPlus’s), Pycharm, redhat, windows 10, Jira, Kibana,
    sqlalchemy, Git, Docker, Kubernetes, Jenkins, Airflow, Ansible, AWX, Cloud privé, Terraform, react(JavaScript)
    Méthodologie: AGILE
    Architecture: Micro service

  • Consultant Développeur Python (Back end)

    chez SEWAN à Paris 10ème (Pôle SI)
    Jan 2018 - Jan 2019

    Contexte Fonctionnel :
    Sophia est une plate-forme Cloud développée et hébergée par Sewan permettant l’accès à
    tous les services (tel mobile, fixe, Hébergement) du catalogue Sewan avec deux modes de ventes :
    en direct auprès des entreprises ou via des partenariats. Ses fonctionnalités sont disponibles via son
    interface ou ses nombreuses API et offrent un accès temps réel complètement automatisé aux offres
    Sewan, Toute l’activité est intégrée au sein d’un gros SI qui permet aux clients (centaine de milliers
    par jour) d’avoir accès aux services.
    Mission principale:
    ➤ Implémentation de correctifs sur des incidents remontés par les utilisateurs.
    ➤ Ajout de nouvelles fonctionnalités sur le SI.
    ➤ Analyse des tickets remontés par les équipes du support.
    ➤ Gestion des incidents.
    ➤ Supervision des déploiements que ce soit au niveau production ou bien test.
    ➤ Implémentation de script de test d’intégration et unitaire en utilisant les mocks .
    ➤ Code review, refactoring the code, pair programming.
    ➤ Validation de tickets incidents.
    ➤ Amélioration des process CI/CD en automatisant les différents déploiements
    ➤ Rédaction et mise à jour des documentations.
    ➤ Fournir des estimations de charge et de délais.
    ➤ Implémentation de l’architecture du micro service d’authentification et de génération de tokens

    Contexte technique : API REST en Python 3(Django, Flask), Pycharm, linux, windows 7, redmine(Outil de ticketing), Kibana, sql, Git, Docker, Docker, Kubernetes, Jenkins
  • Consultant Développeur Python (Back end)

    à Nozay (91) chez Nokia (Pôle R&D)
    Jan 2017 - Jan 2018

    Contexte Fonctionnel:
    Développement intégral ( from scratch) d’un outil ZTC CLOUD sous forme
    d’une plateforme permettant de réserver, orchestrer, monitorer, reporter et analyser des tests
    sur simulateurs pour des éléments unitaires ou de bout en bout. La plateforme offre une
    interface web développée en Python, dont l’aspect user friendly a été particulièrement
    étudié, cet outil permet aux utilisateurs (testeurs et validateurs de Nokia) de faire des
    déploiements d’OS et aussi des softwares sur des équipements d'accès 5G qui sont soit
    physiques ou virtuels.
    Mission principale:
    ➤ Implémentation de l’architecture d’un micro service permettant de communiquer directement avec
    les équipements 5G.
    ➤ Automatisation de déploiements de Tests Lines.
    ➤ Implémentation de tests unitaire.
    ➤ Conception et implémentation d’APIs pour les Airphones(équipement physique d'accès 5G).
    ➤ Implémentation de tests unitaires pour les différentes APIs réalisées.
    ➤ Réalisation de End-to-End tests dans le but d’effectuer de l'intégration en zone production.
    ➤ Upgrade des différents serveurs sur lequel l'outil(ZTC CLOUD) est déployé
    (serveur de production, serveur de développement).
    ➤ Suivie des différents déploiements effectués par les utilisateurs de l’outil.
    ➤ Support pour le compte des utilisateurs
    ➤ Traitements des...

Voir le profil complet de ce freelance