Notre base de 153038 CV vous permet de trouver rapidement un Devops Clermont-Ferrand freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.
Au sein d’une équipe de DevOps en charge de maintenir la plateforme Openshift, j’ai eu
comme mission :
Projet de migration vers la plateforme Openshift 4 : migration des projets des clients de la
plateforme OCP3 vers OCP4
• Etude et rétro-ingénierie de l’existant
• Développement des scripts pour automatiser la migration
• Adaptation des chaines CI/CD pour le déploiement sur OCP4
• Gestion des images docker sur Harbor
• Déploiement du Grafana sur Openshitf et création des dashboards de monitoring
pour les clients
• Accompagnement des clients
• Support et traitement des incidents
Etude d’une nouvelle plateforme de logs: suite aux différents problèmes de latence et de perte des
logs remarqués sur la plateforme, j’ai entamé une étude de la solution actuelle afin d’établir un
constat et proposer une nouvelle architecture de la plateforme
• Etude et Rétro-ingénierie de la plateforme de logs basée sur Elasticsearch
• Rédaction de l’architecture actuelle de la plateforme et proposition d’une nouvelle
architecture basé sur une gestion des logs via une file kafka
• Etablissement d’un plan de charge
• Participer au POC de la solution
Openshift 4, Kubernetes, Grafana, Prometheus, Elasticsearch, fluentd, GitLab, ArgoCD, Bash,
Harbor
J’évolue au sein d’une équipe de DevOps en charge de l’Observabilité de tout le SI
Cdiscount (>5000 applications). Les trois piliers de l’observabilité que constituent les
métriques, les logs et les alertes font partie de notre périmètre. J’ai intégré la mission en
tant que DevOps. Désormais j’ai progressé sur le maintien de toute l’architecture de la
plateforme des métriques et des logs.
Etude de Migration ElasticSearch vers OpenSearch (>200 TB) : Pour répondre aux besoins des
équipes qui souhaitent restreindre l'accès à leurs logs, nous avons effectué une étude des différentes
solutions du marché telles que Loki et OpenSearch. Notre choix s'est porté sur OpenSearch, qui a
répondu à notre besoin d’avoir une solution open source avec un faible coût de migration..
• Etude du choix de la technologie
• Etude du choix de la plateforme de déploiement
• Mettre en place une stratégie de sécurisation d’accès aux logs
• Rédaction de la documentation fonctionnelle/technique
• Participer au découpage des index sur ElasticSearch
Mettre en place une gateway pour la plateforme des logs sur kubernetes (>3k logs/min):
Suite aux compliances de la DSI sur certaines applications, l’installation de l’agent de collecte de logs
n’est pas possible alors nous avons mis en place une gateway permettant aux clients d’envoyer leurs
logs à notre plateforme
• Animation des réunions pour définir le besoin et réaliser les spécifications
• Rédaction de la documentation fonctionnelle/technique
• Etude du choix de la technologie
• Configuration du parsing des formats des logs reçues avant l’indexation dans
ElasticSearch via Vector
• Automatisation de déploiement de Vector via Azure pipeline et Helm sur kubernetes
Mise en place du système d’envoi des alertes sur teams : Afin d’améliorer le service d’envoi des
alertes, j’ai participé à la mise en place du système d’envoi des alertes sur teams (prom2Teams)
• Montée en compétence sur la plateforme d’alerting
• Configuration et déploiement du composant prom2Teams pour l’envoi des alertes
sur kubernetes
• Mise à jour de la stack d’alerting pour intégrer prom2Teams
• Configuration des alertes sur Prometheus
• Traitement des demandes d’ajout d’alertes pour les différentes équipes
Déploiement d’un environnement hors-prod pour la plateforme des métriques (700k
métriques/s): Le projet de monithoring des metrics est une plateforme traitant environ 700k de
métriques/s.
• Montée en compétence sur l’architecture de la plateforme
• Suivi des dashboards Grafana
• Blacklistage des applications qui dépassent la cardinalité des métriques
• Accompagnement des développeurs au respect du bon usage des métriques
• Configuration et mise à jour des composants de la plateforme, crawlers et
fédérateurs pour assurer la charge des nouvelles métriques et des nouveaux jobs
(serveurs et pods)
• Résolution des incidents impactant la plateforme métrique
• Étude et proposition d'un nouveau système de déploiement de l'infrastructure des
métriques
• Rédaction de la documentation fonctionnelle/technique
• Migration des templates de déploiement de la plateforme des métriques sur Helm
• Automatisation de déploiement de la plateforme de monitoring via Azure pipeline et
Helm sur kubernetes
• Création et déploiement d’un environnement Hors Production de la plateforme des
métriques sur kubernetes
Traitement des tickets et des incidents (RUN):
• Support et traitement des tickets et des incidents de la plateforme de monitoring
• Automatisation de gestion des tickets
• Traitement des incidents et maintien de l’infrastructure des logs
Prometheus, Grafana, Elastic Search, Ansible, Terraform, kubernetes, Helm, Fluent-bit,
Vector, Azure DevOps, Confluence, Amazon S3, Thanos
L'équipe CI/CD (Continuous Integration/Continuous Delivery) est chargée de mettre en
place et de gérer les processus d'intégration continue et de déploiement continu au sein de
la DSI Cdiscount. Le rôle principal est de faciliter et d'automatiser le flux de travail du
développement logiciel, depuis l'intégration du code jusqu'à sa livraison en production et
d’assurer le bon fonctionnement de la plateforme d’intégration et de déploiement.
Au sein d’une équipe de 10 personnes, j’ai été amené à travailler sur les sujets suivants :
Projet de déploiement de la configuration des applications en temps réel sur kubernetes :
• Animation des points d’analyse du besoin de client
• Conception de la solution du déploiement de la configuration en temps réel et
coordination avec les clients
• Développement du pipeline de déploiement de la configuration
• Rédaction de la documentation fonctionnelle et technique
Helm, Kubernetes, Python, Bash, ConfigMap, CI/CD, Pipeline As Code, Confluence
Migration des pipelines de déploiement (>2k pipelines) sur Helm:
• Étude et retro-ingénierie du système de déploiement
• Définition du plan de migration et coordination avec les équipes
• Migration des templates de déploiement sur Helm pour chaque type de projet (API,
Job, CronJob)
• Mise à jour des pipelines de déploiement pour intégrer Helm
• Refactorisation des pipelines de livraison pour faciliter le maintien
• Ajout de la livraison multiple et la gestion de la sécurité via keyckloak et Vault
• Conception/développement d'un micro-service pour automatiser la mise à jour des
pipelines
• Ajout des nouvelles fonctionnalités sur les micro-services existants
• Création/déploiement et dockerisation des agents de build on-premise/self-hosted
• Rédaction de l'architecture technique/fonctionnelle de l'infrastructure de
déploiement
• Animation des webinars et meet-up
Helm, Kubernetes, CI/CD, Python, Azure DevOps On-Premise, Pipeline de Release, Bash,
Powershell, Docker, Docker Swarm, Ansible, REST API, TDD, BDD, Flask, Git, Confluence, Jira,
Miro, .NetCore, Keycloak, Vault, Nexus
Projet : Plateforme As A Service (PAAS), solution qui se compose d'un dashboard en React et
de deux micro-services (Python, .NetCore), permet aux utilisateurs d’automatiser la création des
projets (Git, kubernetes, kong, keycloak, RabbitMQ, MongoDB) et leurs pipelines associées :
• Analyse du besoin des clients
• Conception et développement du backend (APIs RestFull)
• Conception et développement des composants frontend
• Mise en place des tests fonctionnelles sur le frontend et le backend
• Dockerization de la solution
• Mise en place de la CI/CD
• Rédaction de l'architecture technique/fonctionnelle de la solution
Python, Flask, .NetCore, PostMan, ReactJS, Redux/Redux-Saga, Gherkin, TDD, BDD, CI/CD,
Azure DevOps, Git, micro-service, Docker, Docker-Compose, Cucumber JS
Le projet de suivis des pipelines, une solution qui se compose d'un dashboard en React et de
deux micro-services (NodeJS), permet à la DSI la surveillance de l'état de santé des pipelines de
livraison (>2000 pipelines) et de calculer les indicateurs de performance Accelerate :
• Participation à la conception et au développement d'un micro-service pour le suivi
des pipelines de build et de déploiement sur Azure DevOps
• Participation à la conception et au développement d'un micro-service pour calculer
les indicateurs de performances
• Mise en place des tests fonctionnels sur les deux micro-service
• Participation au développement du dashboard front
• Développement du schéma de la base de données
• Analyse et amélioration des performances de la solution
• Dockerisation des solutions et déploiement sur swarm
• Migration des applications sur kubernetes
• Mise en place des pipelines de build et de livraison
• Rédaction de l'architecture technique/fonctionnelle de la solution
NodeJS, React JS, Jest, Cucumber JS, Transact SQL, MSSQL, Liquibase, Sequelize, Docker,
Docker-Compose, Docker Swarm, Kubernetes, Bash, Git
Projet de mise en place de la CI/CD sur Azure DevOps, migration de >500 pipelines de build
sur Azure DevOps :
• Étude et rétro-ingénierie des pipelines de build Microsoft XAML
• Rédaction de la documentation de l'étude
• Conception et développement des pipelines de build et déploiement sur Azure
DevOps
• Développement des outils d'automatisation de migration des builds et des releases
sur Azure DevOps
• Mise en place du contrôle de qualité et des tests automatisés
• Dockerisation et déploiement des agents de builds sur Azure DevOps
• Organisation de points réguliers avec les Lead Tech pour le suivi de la migration
Azure DevOps, Pipeline Vnext, Bash, Powershell, Git, Linte...