Contexte mission :
Dans le cadre de cette mission, un support externalisé a été fourni pour un pipeline CI/CD gérant environ 20
applications, y compris l'application coeur d'assurance, en utilisant Broadcom Release Automation, également connu
sous les noms de Nolio ou ARA. Une assistance a été apportée aux équipes d'Allianz pour résoudre les incidents de
déploiement. En complément de ces activités, la mission comprenait également la réalisation d’un upgrade de
CARA dans un environnement de qualification, suivie d'un déploiement réussi en production, sans qu'aucune
régression post-installation ne soit détectée.
Tâches réalisées :
• Résolution des incidents sur un mode amélioration continue en anglais
• Rédaction de la documentation et des procédures en anglais
• Réalisation des indicateurs de performance du support (respect des SLA, niveau de charges, délai de
résolution, …)
• Installation d’une plateforme de QA de la solution de CD
• Upgrade de ARA en QA, puis en Production
• Rédaction d’un plan de test exécuté par les équipes de développement
• Documentation de l’upgrade sur Confluence
Titre de la mission : Évaluation et Transformation DevOps du Système d'Information de la Cour des Comptes : de l'État des Lieux à l'Intégration d'une Architecture Cible.
Contexte mission :
Dans le cadre de la transition de son Système d'Information vers des pratiques DevOps, la Cour des Comptes a sollicité un diagnostic de ses outils actuels ainsi que de ses méthodes de mise à jour des applications, et la création d'une feuille de route pour orchestrer cette transformation DevOps avec des objectifs précis en vue. Au cours de cette intervention, nous avons suggéré diverses architectures adaptées aux différents niveaux de maturité envisagés.
L'architecture finalement choisie a par la suite été intégrée au sein du Système d'Information de la Cour des
Comptes.
Tâches réalisées :
• Identification des besoins clients
• Évaluation de la maturité de l'automatisation à l'aide d'un modèle de maturité regroupant 10 pratiques
CI/CD
• Proposition de plusieurs solutions d'architectures et de gouvernance DevOps
• Identification des besoins clients
• Réalisation d'une comparaison entre les outils afin d'améliorer le niveau de maturité actuel
• Réalisation d'une feuille de route technique pour intégrer l'architecture choisie
• Réalisation d’une feuille de route fonctionnelle pour prioriser les applications à intégrer à la chaine DevOps
• Développement et mise en place d'une démonstration d'une chaine CI/CD avec Gitlab, Gitlab Runner,
Ansible AWX et Liquibase sur le cloud AWS de différentes couches applicatives dockérisées et non
dockerisées
• Intégration de l'architecture proposée au sein de la Cour des Comptes
Contexte mission : Dans le cadre du développement d'un pipeline CI/CD sur le cloud AWS, j'ai mis en place les
étapes et les outils nécessaires pour automatiser l'intégration et le déploiement des applications de bout en bout.
Ce pipeline a servi d'environnement de démonstration aux clients de l'entreprise.
Taches réalisées :
• Configuration du contrôle de version :
o Création des repositories Gitlab pour la gestion et le suivi de code source
• Création d'un processus de build en installant Maven afin de définir les tâches nécessaires pour compiler et
préparer le code pour la livraison
• Mise en place d'un système de test automatisé :
o Configuration des tests unitaires avec Junit et d'intégration pour s'assurer que le code est
fonctionnel.
• Intégration continue :
o Installation d'une instance Gitlab CI pour une exécution automatisée des étapes de build et de test
à chaque modification du code pour détecter rapidement les erreurs et les problèmes. J'ai
expérimenté cette partie avec l'outil Jenkins également.
• Livraison continue :
o Installation de AWX ansible afin de faciliter le déploiement automatisé du code vers les
environnements de production, préproduction ou de tests en fonction des besoins.
o Installation de l'outil Liquibase pour faciliter le déploiement des changements de base de données
• Release Orchestration :
o Installation et administration de l'outil digital.ai release.
o Installation des plugins de l'éditeur et des communautés
o Développement des connexions vers les outils du pipeline DevOps
o Développement d'un plugin de l'outil Devops Config- servicenow de gestion de configuration
o Extension du plugin Sonarqube dans digital.ai Release
o Orchestration d'un process avec des tasks techniques et fonctionnels sur un exemple d'application
composé des composants backend, frontend et bdd
Titre de la mission : Assister le client pour la mise en place de la plateforme DevOps et le guider dans l'intégration de ses applications sur cette plateforme.
Contexte mission :
Dans le contexte de l'évaluation de la plateforme DevOps de la Cour des Comptes, une architecture cible a été établie. La Cour des Comptes exprime le besoin d'être accompagnée dans le processus d'intégration de la plateforme DevOps, en s'appuyant sur l'architecture qui a été déterminée.
Tâches réalisées :
• Initialisation de la mission avec une réunion de lancement, présentation des équipes, et définition de la méthodologie et des tâches.
• Accompagnement de la Cour dans l'installation et configuration d'outils clés DevOps, dont Ansible Tower, Nexus, et Liquibase.
• Assistance dans l'intégration de quatre applications, incluant la mise en place de la CI-CD dans des environnements de test et de production.
• Organisation des réunions de validation pour assurer la conformité des développements avec les objectifs établis.
• Élaboration et implémentation d’une stratégie d'amélioration continue de la plateforme DevOps, incluant une feuille de route et des réunions trimestrielles de veille technologique.
• Pilotage d’un atelier de gouvernance pour définir les rôles, les responsabilités, et les bonnes pratiques au sein de l'équipe DevOps, tout en encourageant le partage d'informations et de retours d'expérience.
Contexte mission Projet ITNORMS :
Au sein d’IT GROUP, dans l’équipe DevOps ODM 09 composé de 50 personnes : Développement en Python d’un
produit interne nommé IT NORMS (valide qu’un environnement respecte les normes BNP Paribas).
Automatisation des déploiements avec Ansible Tower.
Méthodologie : SCRUM
Tâches réalisées :
• Scripting des normes internes du groupe Bnp Paribas en Python
• Administration de la base de données sur les environnements de Dev, Qual et Prod
• Contact des Owners de règles ITRULES (les métiers) pour le recueil des normes unitaires
• Mentoring des apprentis : Encadrement des alternants, conseil et suivi de développement
• Création de tutorials pour expliquer l’utilisation de l’outil ITNORMS
• Suivi et résolution des incidents de production
• Automatisation des builds et de déploiements grâce à la Toolchain DevOps
Environnement technique : Python, Gitlab, Jenkins, Artifactory, Jira, Oracle, Confluence
Contexte mission Projet Ansible Tower :
Mise en place de l’outil RedHat Ansible Tower, dans l’équipe Continuous Delivery
CD, sous-équipe d’ODM-09 de 7 personnes, et sécurisation des accès par organisation. Mon
travail consistait à contribuer à la personnalisation, au développement des plugins et à la mise
en production de ce produit.
Méthodologie : SCRUM
Tâches réalisées :
• Développement en Python d’un plugin Ansible Tower en collaboration avec RedHAT afin de se connecter
sur les machines windows et linux en winrm, psrp et ssh.
• Récupération des jobs lancées par les clients afin de suivre l’utilisation par chacune des organisations clients
de notre plateforme et pousser une le rapport sur l’outil mattermost
• Développement du playbook ansible pour le déploiement des changements du Plugin
• Mise en production des évolutions du plugin Ansible Tower en collaboration avec l’équipe Support
Développements Big Data & Machine Learning - Orléans, France
Projet 1 : Migration vers une base BidData
Migration des bases de données relationnelles du Service National Géologique dans un environnement Big Data
plus performant.
Tâches réalisées :
• Recueil des besoins auprès des Managers
• Extraction des données à partir d’une base PostgreSQL, Oracle, des fichiers (CSV, EXCEL, JSON et XML)
• Ingestion des données banque du sous-sol France (BSS) dans l’environnement Big data (Datalake BRGM)
• Amélioration du workflow des APIs de diffusion de données en utilisant les données mise à disposition dans
le Datalake sans passer par des bases de données relationnelles
• Valorisation de ces données selon les spécifications
• Indexation des données grâce à Solr