CV Google Cloud Platform : Sélectionnez facilement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Google Cloud Platform connectés

CV Hands-on CTO / Tech Lead / Engineering Manager
Sylvain

Hands-on CTO / Tech Lead / Engineering Manager

  • SIX FOURS LES PLAGES
PHP SYMFONY DEVOPS Google Cloud Platform
Disponible
CV DevOps
Saaid

DevOps

  • ANTONY
DEVOPS LINUX DYNATRACE SQL CI/CD Kubernetes ANSIBLE AZURE Cloud AWS Google Cloud Platform
Disponible
CV Backend developer Golang
Christophe

Backend developer Golang

  • BONDY
GO DOCKER Kubernetes Google Cloud Platform ELASTICSEARCH MYSQL POSTGRESQL
Disponible
CV Directeur de projet/ Manager de transition
Hakim

Directeur de projet/ Manager de transition

  • VILLEFRANCHE SUR SAONE
VMWARE DATACENTER AZURE Cloud AWS Google Cloud Platform
Disponible
CV Technical Lead Software and DevOps Developer
Walid

Technical Lead Software and DevOps Developer

  • HAZEBROUCK
SPRING JAVA Angular Vue.js MONGODB Github Google Cloud Platform AMAZON AWS Oracle Database 12c
Disponible
CV Data Engineer / Analyst
Ayoub

Data Engineer / Analyst

  • PARIS
DATA PYTHON SQL Microsoft Power BI Google Cloud Platform APACHE SPARK
Disponible
CV Directeur de projet
Omar

Directeur de projet

  • Montigny le Bretonneux
SCRUM PROJECT MANAGEMENT OFFICE PMO SAP SALESFORCE BIG DATA BI Google Cloud Platform
CV Lead SRE et DevOps Cloud
Matthieu

Lead SRE et DevOps Cloud

  • MONTPELLIER
Kubernetes Google Cloud Platform Cloud AWS DEVOPS ANSIBLE DOCKER AZURE CI/CD JENKINS GIT
CV Data Analyst BI
Abderahmane

Data Analyst BI

  • NICE
BI SQL Microsoft Power BI DATA SQL SERVER JIRA PYTHON AZURE Google Cloud Platform TALEND
Disponible
CV Data Scientist
Louis

Data Scientist

  • PARIS
DATA SQL PYTHON TABLEAU SOFTWARE Data science DATAWAREHOUSE APACHE SPARK Google Cloud Platform
Disponible
Je trouve un CV Google Cloud Platform
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Mohamed,
freelance GOOGLE CLOUD PLATFORM résidant dans les Hauts-de-Seine (92)

  • - Lead Tech / Data Architect

    Carrefour
    Jan 2022 - Jan 2023

    // Contexte :
    L’équipe Finance de Carrefour souhaite créer un datalake afin de centraliser et harmoniser les données issues de
    plusieurs pays et systèmes sources.
    // Rôle :
    • Gérer le backlog et les priorités techniques de l’équipe.
    • Coordination avec 8 pays pour le sourcing des données locales.
    • Cadrer et former une équipe de 3 développeurs et 2 data analysts.
    • Définir l’architecture cible sur GCP.
    • Participation aux sujets techniques transverses de l’équipe Links.
    • Implémentation et développement des différentes briques techniques.
    // Réalisations :
    • Développement des services d’extraction, chargement, transformation et exposition des données.
    • Développer l’architecture réseaux pour se connecter aux différents systèmes locaux.
    • Conception et développement de la chaîne de CICD.
    • Mettre en place deux solutions de monitoring et d’alerting.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Bigquery, EventArc, Cloud Run, FastAPI, NodeJS, OpenAI, Pubsub, Cloud Datafusion, Cloud Workflows, SAP SLT, SAP DI, DBT //Gitlab, CloudBuild, Terragrunt, Terraform, Terratest // Interconnect, Cloud VPN, Shared VPC, VPC peering
  • Lead Data Engineer

    Servier -
    Jan 2020 - aujourd'hui

    // Contexte :
    Servier souhaite développer une data platforme sur GCP pour centraliser les différents flux de données et alimenter des
    cas d’usage de dashboarding et ML.
    // Rôle :
    • Cadrer et former une équipe de 6 développeurs et 5 data analysts.
    • Design et conception de l’architecture de la dataplateforme sur GCP.
    • Coordinations avec les équipes de sécurité et de qualité pour s’assurer que la solution est compliant avec les normes
    internes de l’entreprise.
    • Coordination avec les solutions owners de chaque source de données pour définir les contraintes sur les données.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme: config management, data collection, data quality, data
    transformation, data exposition.
    • Conception et développement de la chaîne de CICD
    • Connecter les sources de données aux dashboards POWERBI.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Argo, Docker, Kubernetes ,Cloud Run, python, CloudBuild, Terraform //Bigquery, Cloud SQL, PubSub
  • ML Engineer

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite développer un dashboard pour suivre les tendances des marques sur les réseaux sociaux.
    // Rôle :
    • Design et conception du backend data du dashboard.
    • Conception des modèles de données.
    // Réalisations :
    • Automatisation des pipelines de collecte , de transformation et d’ingestion des données non structurées.
    • Développement d’un modèle ML permettant d’analyser les sentiments sur les posts des réseaux sociaux .

    // Environnement technique : Google Cloud Platform, Airflow, Docker, FastAPI 2, Fastext, AI Platform, SQL Alchemy, , Linux, python,Azure Devops, Terraform
  • Data Engineer Senior

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite une solution cloud pour centraliser les différents flux de données présents et les mettre à disposition aux
    cas d’usage IA.
    // Rôle :
    • Design et conception de l’architecture cible de la data plateforme.
    • Coordinations avec les owners de chaque data source pour définir le mode d’ingestion et d’exposition des données.
    • Coordinations avec l’équipe de sécurité pour définir les contraintes de sécurité et valider les solutions proposées.
    • Coordination avec les managers des uses cases ML pour cadrer leurs besoins en data.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme; config management, data collection, data quality, data
    transformation, data exposition, automatisation de l’infrastructure, data cataloging, data gouvernance as code.
    • Conception et implémentation des APIs pour exposer les données.
    • Mise en place de la CICD.

    // Environnement technique : Google Cloud Platform, Airflow, Docker, Kubernetes, Cloud Run, APIGEE, Linux, Python, Azure Devops, Terraform
  • Carrefour - ML Engineer

    Jan 2019 - Jan 2020

    // Contexte :
    Carrefour souhaite améliorer son système de détection de ruptures des produits dans les magasins en utilisant l’IA.
    // Rôle :
    • Workshop d’analyse des besoins des données et cadrage du kick-off technique de la solution.
    • Design et conception de l’architecture cible de la solution.
    • Contribution à la définition du modèle ML et la partie de features engineering.
    • Mise en place et suivi des normes et des best-practices du code au sein de l’équipe.
    // Réalisations :
    • Développement d’une couche de collecte des données on-premises (Oracle, SFTP) et Cloud.
    • Développement et automatisation des pipelines d’ingestion, de transformation et d’exposition des données.
    • Mise en place des bonne pratiques de MLops (Mlflow).
    • Définition et implémentation des différents mode d’accès aux données ( Bigquery, Datastudio, APIs).
    • Mise en place de la CICD ( gestion des environnements, test unitaires/d'intégration, automatisation du déploiement).
    • Industrialisation du modèle ML sous forme d’une API.
    • Formation des équipes aux outils Devops (Docker, Kubernetes).

    // Environnement technique : Google Cloud Platform, Linux, Python, pyspark, SQL, Keras, Jenkins, Docker ,Kubernetes, Helm, Terratest, Terraform
  • ML Engineer

    SLPV analytics -
    Jan 2016 - Jan 2019

    // Contexte :
    SLPV analytics est une startup parisienne travaillant dans la modélisation ML des problématiques liées au Marketing
    et l’étude de marché. J’ai rejoint SLPV en septembre 2016 et j’étais en full time jusqu’à décembre 2018, Ensuite j’ai
    travaillé en freelance avec la startup et j’ai repris en parallèle l’étude pour effectuer un master spécialisé en Big Data à
    Télécom Paristech.
    // Rôle :
    • Analyse des besoins clients .
    • Modélisation statistique et machine learning.
    • Industrialisation et packaging des solutions ML.
    • Développement des services informatiques de l’entreprise ( site web, interface d’échange de données, application de
    feuille de temps/congés) .
    // Réalisations :
    • Modélisation Mix-Marketing dans le secteur hôtelier : Modèle bayésien hiérarchique pour déterminer l’impact des
    actions marketing au CA.
    • Analyse tradeoff dans le domaine de télécommunication : Modèles de régressions pour simuler les meilleurs offres
    mobiles.
    • Prédiction de churn dans le secteur hôtelier.
    • Conception d’un baromètre de suivi de la perception des personnages politiques à partir des réseaux sociaux.
    • Prédiction et visualisation des résultats des élections présidentielles.
    • Prédiction de parcours de clients en ligne sur un site e-commerce en utilisant les chaînes de markov cachées
    • Industrialisation des modèles ML sous forme d’API/ Dashboard.
    • Automatisation de la génération des rapports Powerpoints/Excels.

    // Environnement technique : Cloud AWS, Linux, Python, Java, R, SAS, ReactJS, Tensorflow
Voir le profil complet de ce freelance