CV/Mission d'Architecte Serverless freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mourad,
Architecte Serverless habitant les Yvelines (78)

  • Poste actuel : Principal Solutions Architect

    Chez Amazon Web Services AWS
    Jan 2022 - aujourd'hui

    1. Leadership technique :
    o Orientations architecturales : Fournir des orientations expertes sur les meilleures pratiques architecturales et aider à concevoir des solutions conformes aux principes d'AWS.
    o Évangélisation technologique : Rester à jour avec les services et technologies d'AWS et plaider en faveur de leur adoption pour atteindre les objectifs commerciaux.
    2. Engagement client :
    o Consultation : Travailler en étroite collaboration avec les clients pour comprendre leurs besoins commerciaux, leurs exigences techniques et leurs contraintes. Fournir des recommandations et des solutions pour relever leurs défis.
    o Communication : Communiquer efficacement des concepts techniques complexes aux parties prenantes techniques et non techniques, y compris aux dirigeants.
    3. Conception de solutions :
    o Développement architectural : Diriger la conception et le développement de solutions évolutives, sécurisées et rentables sur la plateforme AWS.
    o Meilleures pratiques : Veiller à ce que les solutions respectent les meilleures pratiques d'AWS en matière de sécurité, de performance, de fiabilité et d'efficacité financière.
    4. Collaboration en équipe :
    o Collaboration avec les équipes : Travailler en étroite collaboration avec des équipes interfonctionnelles, y compris les ventes, le marketing et la gestion de produits, pour assurer l'alignement entre les besoins des clients et les solutions techniques.
    o Mentorat : Fournir du mentorat et des conseils aux architectes juniors et à d'autres membres de l'équipe.
    5. Innovation :
    o Apprentissage continu : Rester informé des tendances de l'industrie, des nouveaux services AWS et des technologies émergentes. Appliquer ces connaissances pour innover et améliorer les solutions existantes.
    o Proofs of concepts : Diriger le développement de preuves de concept pour démontrer la faisabilité et la valeur des solutions proposées.
    6. Résolution de problèmes :
    o Résolution de problèmes complexes : Aider à résoudre des problèmes techniques complexes, en travaillant en étroite collaboration avec le support client et les équipes de services AWS.
    7. Input stratégique :
    o Planification stratégique : Fournir des contributions à la planification stratégique et aux feuilles de route, aidant à façonner la direction des services et solutions AWS.
    8. Documentation :
    o Documentation et Partage des Connaissances : Créer et maintenir une documentation sur les architectures, les meilleures pratiques et les leçons apprises. Partager les connaissances avec la communauté élargie.
    9. Assurance qualité :
    o Révision et Audit : Effectuer des révisions des conceptions architecturales et des mises en œuvre pour garantir qu'elles respectent les normes de qualité et les meilleures pratiques.
    10. Plaidoyer Client :
    o Succès Client : Plaider en faveur du succès client en comprenant leurs objectifs commerciaux et en veillant à ce que les solutions techniques contribuent à leurs objectifs globaux.

  • Architect Data

    chez Balenciaga
    Jan 2021 - aujourd'hui

    Mise en place de la plateforme modern data, migration des données vers GCP, construction du modèle datavault et des rapports powerbi

    • Mise en place de l’architecture de migration des rapports EDW Oracle/MicroStrat vers BigQuery et PowerBI
    • Mise en place de l’hiérarchie projet (folders et projects)
    • Choix des composants techniques GCP permettant d’implémentation des flux :
    o EDW Oracle vers BigQuery en utilisant cloud datafusion
    o Amazon S3 vers GCS avec du cloud RUN
    o Microsoft Sharepoint vers GCS à l’aide de cloud RUN
    • Mise en place des bonnes pratiques bigquery
    • Mise en place de la chaine CICD en utilisant Gitlab, Jenkins et cloud build
    • Mise en Place d’un ETL dans BigQuery pour créer les tables de faits/vues pour être les sources des rapports powerBI
    • Benchmarking des outils GCP pour faire le choix en se basant sur les besoins clients
    • Faire le choix de stratégie (réseau, facturation, sécurité, serverless vs infra…)
    • Rédaction du DAT
    • Piloter le développement de la chaine DATA et s’assurer de la maintenabilité, scalabilité et flexibilité du code.

    Environnement Technique : GCP, AWS, Microsoft Sharepoint, Oracle, Python, flask, jenkins, bigquery, powerbi, cloud functions, cloud run, cloud scheduler
  • Poste actuel : GCP/Azure Cloud Solutions Architect

    Chez VISEO
    Jan 2021 - Jan 2022

    • Concevoir, créer, opérationnaliser, sécuriser et surveiller les systèmes de traitement des données dans Google Cloud Platform.
    • Exploiter, déployer et entraîner en continu des modèles de machine learning préexistants.
    • Identifier, concevoir et mettre en œuvre des améliorations de processus internes.
    • Automatisez les processus manuels pour optimiser la livraison des données.
    Architecte des systèmes distribués et des datawarehouse.
    • Aggréger les sources de données et créer des pipelines fiables.
    • Collaborer avec les équipes de science des données et les principales parties prenantes pour atteindre les objectifs commerciaux.
    • Propostion des choix techniques appropriés e se basant sur les besoins métier (type des données, nature des traitements…)
    • Créer Des clusters Dataproc en suivant les best practices de GCP
    • Utiliser les orchestrateurs GCP (Cloud Composer)
    • Création du tenant GCP et définition de l’architecture et l’organisation selon les besoins du client
    • Faire le choix d’interconnexion réseau intra GCP et entre GCP et l’extérieur
    • S’assurer de la mise en place des best practices sécuritéau sein des projets GCP
    • Déploiment des algorithmes ML dans !gcp en utilsant les diffrentes techniques disponibles (BQML, AutoML, pretrained models …)
    • Mise en place des flux de tranfert de données depuis/vers les bases de données GCP

  • Technical leader Big DATA/Cloud

    BNP Paribas
    Jan 2021 - Jan 2021

    • Installation of Kafka connect connectors (hdfs, jdbc, elastic and mongodb)
    • Development of flink pipelines
    • Benchmark of the different kafka connect topologies (number of pods, number of tasks and number of connectors per pod) to select the best offer
    • Troubleshoot issues related to kafka connect bugs
    • Support of Métis teams in setting up kafka connect clusters

  • Technical leader Big DATA/Cloud

    Société Générale
    Jan 2018 - Jan 2020

    o Déploiement d’un cluster cloudera 5.13 dans le cloud GCP
     Création des templates d’instances compute engine VM à utiliser pour les machines du cluster
     Provisionning des compute engine VMs pour déployer les serveurs
     Provisionning des ressources de stockage (SSD vs HDD) et de processing au niveau des compute engine VM
     Définition de l’architecture et des ressources du cluster en fonction des besoins du client et des workloads à mettre en place
     Setup du repository yum en local
     Installation cloudera manager et cloudera management services
     Installation et configuration de zookeeper
     Installation et configuration des services HDFS/YARN(MRV2)
     Définir la stratégie de scheduling yarn et création des yarnn queues correspondantes à chaque projet
     Installation et configuration des database enines Hive et impala
     Installation et configuration des composants de l’écosystéme hadoop (Hue, pig, oozie)
     Configuration de la HDFS et yarn High availability
     Sécuristaion du cluster : Configuration des ACLs HDFS, installer et configurer Sentry, configuration de l’authentification et l’autorisation des utilisateurs Hue, activation de Kerberos
    o Migration d’une plateforme de BI traditionnelle vers le cloud GCP
     Mise en place d’une hierarchie de stockage effective et low cost pour le traitement des données standard (hot data), nearline et données d’archives
     Construction d’une data engineering pipeline basée sur cloud data fusion
     Analyse interactive des données avec wrangler
     create VPC networks and other networking objects


    • Projets Métiers:
    o Certification Comptable : Mise en place d’une plateforme Big Data d’un process de contrôle de certification comptable.
    o Automatisation de la Revue Analytique : Mise en place d’un process de revue analytique des soldes et flux à la société générale
    o Gestion des écritures manuelles : Mise en place d’un process de contrôle et validation des écritures manuelles.
    • Taches techniques:
    o Développement des jobs Talend Big Data (spark et standard) pour le chargement des données dans le cluster Big Data
    o Optimisation des jobs Talend Big Data pour garantir une meilleure efficacité par rapport au contexte du développement
    o Assurer le suivi des best practices Talend Big Data
    o Développer des scripts scala pour assurer les besoins du projet
    o Assurer une meilleure utilisation des fonctionnalités du systéme de versionning GIT et du serveur d’artifact nexus
    o Fine tuning des jobs sparks pour meilleurs performances spark et meilleure utilisation des ressources du cluster
    o Monitoring des queues yarn dédiées aux projets et faire les actions nécessaires en cas de problème
    o Alimentation des tables Hive et mettre en place les bonnes caractéristiques (format de données, partitionnement, type…)
    o Ouverture des routes pour la réception des fichiers à partir des aplications sources vers le cluster big data
    o Mettre en place les process de vérification de format des données et envoi automatique des alertes en cas de problèmes
    o Mettre en place la chaine ELK(Elastic search, Logstach, Kafka) pour gérer les logs Talend
    o Assurer la mise en place de la chaine CICD du projet qui contient les éléments suivants : JENKINS, LDAP, SGITHUB, Talend Studio, Ansible tower, AWX, TAC
    o Développer un job sqoop qui copie des données du datalake vers le serveur sql server
    o Paramètrage du flux TOM qui ...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Architecte Serverless, Missions Architecte Serverless, Architecte Serverless freelance

Les nouvelles missions d'Architecte Serverless

Architecte AWS

JENKINS HASHICORP TERRAFORM DEVOPS Cloud AWS CI/CD
ASAP
Defense
215 jours ouvrés
Voir la mission

ARCHITECTE CONTENEURISATION

POSTGRESQL DEVOPS DOCKER
ASAP
92
3 mois
Voir la mission

Architecte Technique

Kubernetes HASHICORP TERRAFORM
ASAP
75
6 mois
Voir la mission

Architecte Technique Applicatif

JAVA JAVASCRIPT HTML CSS WEBLOGIC JBOSS TOMCAT
ASAP
75 - Paris
3 mois
Voir la mission

Tech lead Data

SQL AZURE Microsoft Power BI
ASAP
92 - GENNEVILLIERS
12 mois
Voir la mission

Architecte Cloud - AZURE

AZURE Kubernetes DOCKER ANSIBLE
ASAP
63 - Clermont-Fd / Remote
3 mois
Voir la mission

Architecte Cloud GCP

Google Cloud Platform
ASAP
31 - Toulouse + télétravail
7 mois
Voir la mission

Architecte Automatisation DevOps Cloud AWS F/H

VMWARE DEVOPS Kubernetes Cloud AWS AWS LAMBDA
ASAP
Paris
3 mois
Voir la mission
Je trouve ma mission

Les profils d'Architecte Serverless ont postulé à :

Architectes Cloud / DevOps

GIT HASHICORP TERRAFORM AZURE Kubernetes Cloud AWS
ASAP
75 - PARIS
18 mois
Voir la mission

DevOps

GIT AZURE DOCKER Kubernetes Cloud AWS
ASAP
75 - PARIS
24 mois
Voir la mission

Architecte Cloud (AWS)

Cloud AWS
ASAP
69 - LYON
24 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Architecte Serverless disponibles

CV Cloud Architect & DevOps | Cloud Security Architect & DevSecOp on AWS GCP Azure and private Cloud
Claire

Cloud Architect & DevOps | Cloud Security Architect & DevSecOp on AWS GCP Azure and private Cloud

  • PARIS
AMAZON WEB SERVICES AZURE Google Cloud Platform DEVOPS HASHICORP TERRAFORM Kubernetes AT&T Cybersecurity
Bientôt disponible
CV Architecte Entreprise et Api Management
Manuel

Architecte Entreprise et Api Management

  • NEUILLY-PLAISANCE
SCRUM MULESOFT ANYPOINT PLATFORM REST API RESTful C# ENTERPRISE ARCHITECT ASP.NET C# Angular
Disponible
CV Architecte d'entreprise API RESTful
Jean-Michel

Architecte d'entreprise API RESTful

  • Asnières
API RESTful Cloud AWS IDENTITY AND ACCESS MANAGEMENT IBM API Connect AZURE JAVA
Disponible
CV Architecte Solutions Senior - Tech Lead Java/Python
Jean-Philippe

Architecte Solutions Senior - Tech Lead Java/Python

  • Clamart
REST ENTERPRISE ARCHITECT JAVA MESSAGE SERVICE JAVA SQL PYTHON DEVOPS Cloud AWS BIG DATA
Disponible
CV Ingénieur DevOps & Cloud
Foued

Ingénieur DevOps & Cloud

  • CLAMART
SYMFONY DOCKER Cloud AWS HASHICORP TERRAFORM GIT DEVOPS Kubernetes TypeScript ANSIBLE JENKINS
Disponible
CV Architecte AZURE
Youssef

Architecte AZURE

  • ATHIS-MONS
AZURE
Disponible
CV Tech Lead et architecte JAVA
Alain

Tech Lead et architecte JAVA

  • Aix les bains
JAVA SQL LINUX ORACLE NoSQL C++ BIG DATA MICROCONTROLEUR
Disponible
CV DevOps
Ismail

DevOps

  • NANTERRE
LINUX UBUNTU GIT REST LINUX DEVOPS Kubernetes JENKINS DOCKER Cloud AWS Google Cloud Platform
Disponible
CV Tech lead Dev - DevOps
Abdelbaki

Tech lead Dev - DevOps

  • CERGY
J2EE SPRING AGILE REACT.JS Angular SQL MONGODB SCRUM GIT .NET
Disponible
CV Solutions Architect
Youssef

Solutions Architect

  • COLOMBES
NODE.JS TypeScript MYSQL Cloud AWS REACT.JS PHP DOCKER MONGODB
Disponible
Je trouve mon freelance