CV ARTIFACTORY : Trouvez le meilleur profil indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils ARTIFACTORY connectés

CV ArchitecteTechnique DevOps & Cloud
Racine

ArchitecteTechnique DevOps & Cloud

  • BOISSY-SAINT-LÉGER
OPEN SOURCE HASHICORP TERRAFORM DEVOPS GITLAB ANSIBLE Kubernetes Cloud AWS PYTHON AZURE Google Cloud Platform
Disponible
CV Lead DevOps Cloud AWS / AZURE / GCP / KUBERNETES
Crépin

Lead DevOps Cloud AWS / AZURE / GCP / KUBERNETES

  • PONTAULT-COMBAULT
DEVOPS Kubernetes SONARQUBE MAVEN DOCKER Cloud AWS WEBSPHERE
Disponible
CV Développeur Full Stack JAVA / Angular
Aymen

Développeur Full Stack JAVA / Angular

  • MONTIGNY-LE-BRETONNEUX
JAVA SQL SPRING BATCH GITLAB Spring Boot JMS Angular Kubernetes Kafka REDHAT OPENSHIFT
Disponible
Je trouve un CV ARTIFACTORY
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des emplois de Ghassen,
freelance ARTIFACTORY résidant dans le Val-de-Marne (94)

EXPÉRIENCES PROFESSIONNELLES

CARREFOUR– Consultant DevOps janvier 2022 – présent
Contexte : En mission chez Carrefour Plateforme Client (E-commerce) Ingénieur DEVOPS et Industrialisation Cloud
Equipe : Scrum Master, Product Owner, 12 Devops
Démarrage et amélioration du projet ABO et AEX (Abonnement, Achat Express)
o Développement de la CI/CD du projet ainsi que la mise en place du monitoring et de l’alerting
o Amélioration continue de l’automatisation en suivant les normes de standardisation
o Gestion des incidents de Prodcution et évolutions fonctionnelles
Reprise et Coding de la CI/CD du projet PAY (Payment)
o Factorisation des rôles pour calquer sur le standard Carrefour
o Simplification de l’architecture
o Amélioration du code CI/CD et migration sur une autre infrastructure Cloud Azure
o Migration des Microservices IAAS en CaaS sur Kubernetes
Monitoring et Alerting des infrastructures avec les outils fournis par les équipes de supervision de carrefour
o Remontée des logs vers Logm (puit de log) afin de traiter et d’afficher les logs via Graphana et Kibana
o Dashboarding et monitoring des infrastructures via Promtheus, Grafana, Kibana et Dynatrace
Autoshatdown des bases de données sur PAAS
Templatisation des standard terraform et maintenance des rôles ansible
Support et Accompagnement d’équipe DEV
Environnement technique: Redhat 7.9, Ansible, Kubertenes, Docker, Springboot, Apache, Jenkins, Grafana, Dynatrace, Confluence, Bitbucket, Artifactory, Microsoft Azure, Kibana, Elasticsearch, Memcached, Postres, Mysql, RabbitMQ, kafka.

DARE(ING/AXA)– Consultant DevOps septembre 2020 – janvier 2022
Contexte : l’accompagnement du client dans la transformation de leur infrastructure et le développement de
leurs projets stratégiques : mettre en place CI/CD Pipeline et automatisation
Equipe : Scrum Master, Product Owner, 3 Devops, 5 Dev
Contribuer à la conception de solutions d’architectures
Conseiller notre client dans le choix de solutions d’architectures systèmes et infrastructure
Actualiser les architectures dans une approche agile ; en tenant compte des évolutions et enjeux dans un contexte DevOps.
Accompagnement à la mise en place de chaines de déploiement continu
Support sur l’IC pour les équipes de Projet :
o Création de l’espace projet : Pipeline ADO
o Résolution des problèmes de compilation et de déploiement
o Support sur l’utilisation de la chaine CI/CD, Docker
Déploiement en continue en utilisant : Docker , kubernetes, Openshift
Automatisation de configuration et de déploiement avec les pipelines ADO
Mise en place de chaines de déploiement continu : ADO, Docker, Kubernetes, Openshift
Supervision du platforme : TST/ACC/PRD Openshift namespace
Monitoring des applications : Promtheus, Grafana, Kibana
Gestion, Analyse et Reproduction des incidents : P1/P1 Incidents support
SLA Documentation
Bash scripting
Gestion des certificats : Migration Azure keyvault
Documentation sur confluence
Favoriser le partage de connaissance au sein d’une équipe en mode agile
Environnement technique : Java , Maven , Artifactory , Docker ,Kubernetes, Azure DevOps , Promtheus,
Grafana , Kibana

ING direct– Consultant DevOPS avril 2019- septembre 2020
Contexte : l’accompagnement du client dans la transformation de leur infrastructure et le développement de
leurs projets stratégiques : amélioration de l’IC et automatisation de l’infra avec Ansible
Equipe : Scrum Master, Product Owner, Tech lead, 4 Dev
Contribuer à la conception de solutions d’architectures
Conseiller notre client dans le choix de solutions d’architectures systèmes et infrastructure
Actualiser les architectures dans une approche agile ; en tenant compte des évolutions et enjeux dans un
contexte DevOps.
Accompagnement à la mise en place de chaines de déploiement continu
Packaging automatisé : Java, Maven, Gitlab, Artifactory
Support sur l’IC pour les équipes de Projet :
o Création de l’espace projet : job Jenkins
o Gestion des dépendances du projet : Maven, Artifactory
o Résolution des problèmes de compilation et de déploiement
o Rédaction du Jenkins file pour spécifier la fonctionnalité de chaque stage du pipeline
o Support sur l’utilisation de la chaine IC, Docker
Déploiement en continue en utilisant : Docker HUB, Docker Image, Docker Compose, Docker File
Automatisation de configuration et de déploiement avec Ansible
Mise en place de chaines de déploiement continu : Jenkins, TFS, Ansible, Ansible Tower
Migration les pipelines existants vers Azure DevOps : mettre en place le projet ansible, mettre en place
les pipelines de construction de projet et déploiement des applications, gérer les dépendances sur
Azure Central
Monitoring des applications : Promtheus, Grafana, Kibana, logstash
Gestion, Analyse et Reproduction des incidents
Gestion des certificats et ouverture des flux
Documentation sur confluence
Favoriser le partage de connaissance au sein d’une équipe en mode agile
Environnement technique : Java 8/11, Maven 3.5.4, Git 2.14.2, Gitlab, Jenkins 2.121.1, Sonar 7.0,
Artifactory 3.13.0, Docker 18.03.0 CE, Ansible 2.4, Ansible Tower, Azure DevOps , Promtheus, Grafana ,
Kibana , logstash

SG Insurance– Consultant DevOPS Janvier 2018 - Mars 2019
Contexte : Au sein d’une équipe DevOps, amélioration de l’IC et automatisation de l’infra sur le CLOUD AWS
avec Terraform et Ansible :
Support sur l’IC pour les équipes de Projet :
o Création de l’espace projet : job Jenkins
o Gestion des dépendances du projet : Maven, Nexus
o Résolution des problèmes de compilation et de déploiement
o Support sur l’utilisation de la chaine IC, Docker
Packaging automatisé : Java, Maven, GitHub, Nexus
Déploiement en continue en utilisant : Docker HUB, Docker Image, Docker Compose, Docker File
Orchestration des conteneurs : ECS, EKS, Docker SWARM, Kubernetes
Automatisation de configuration et de déploiement avec ANSIBLE
Utilisation de CloudFormation et Terraform pour la création des environnements :
o ECS, Buckets S3, EC2, SNS, SQS, Lambda
Support aux projets sur l’utilisation de AWS:
o Générer et fournir les clés d’accès aux projets
o Utilisation de la console AWS, S3 browser, CLI, API
Documentation sur confluence
Environnement technique: Java 8, Maven 3.5.4, Git 2.14.2, GitHub, Jenkins 2.121.1, Sonar 7.0, Nexus
3.13.0, Docker 18.03.0 CE, Docker Hub, Docker SWARM, Kubernetes 1.9, Ansible 2.4, AWS, EC2, ECS,
Lambda, S3, SNS, SQS

Orange Labs Paris – Mission Ingénieur Big Data fevrier 2017- Septembre 2017
Contexte : Rattaché à la direction de l’informatique de gestion de l’entreprise
Projet : Refonte de SI pour l’entreprise et migration vers une plateforme DataLake :
Exploration de Big Data avec Hortonworks
Automatisation avec ANSIBLE : Yaml, Inventory, Playbook
Ingestion des données en utilisant Sqoop et Spark
Ingestion en mode Fast Data avec Nifi à partir des bucket S3 (AWS) pour les SI externes
Création et déploiement d’applications streaming en utilisant Spark Streaming et Zookeeper
Planification les taches de SPARK avec Oozie
Traitement des données avec Hive, Hbase et Spark
Analyse des données avec Mahout et Spark MLib
Utilisation de YARN pour lancer les jobs Spark
Participation à l’optimisation des taches de Spark et conception des requêtes efficientes pour
chercher des données depuis HBase.
Utilisation de l’interface HUE afin de réaliser des taches sur Hive, HBase, Oozie et Pig.
Maintenance et exploitation des composants HADOOP
Monitoring et supervision sur DATALAKE : Nagios, ELK
Support sur l’utilisation de Datalake et Documentation
Environnement technique : Hadoop, HDFS, Hive, Spark, Spark SQL, Oozie, HBase, Hue, Pig, Nifi, Kafka,
Ansible

Esiee Paris – Laboratoire LIGM Février 2017– Octobre 2017
Contexte : Stage de fin d'études, en Mode Scrum
5G : Optimization of Routing And Wireless Ressource Allocation In V2X Communications
Faire du slicing dans le contexte 5G en utilisant un contrôleur SDN
Déploiement d’un système IOT avec les cardes SDR
Optimisation du scheduling pour l’allocation des ressources
Simulation et test des performances Réseaux
Environnement technique : c, LTE, LTE-V, V2X, SDN, Embedded Linux, IOT, SDR Cards.

FOCUS Tunis – Equipe Test/Validation Juin 2016– Aout 2016
PAGE 5
Contexte : Stage s’été
Design of a DSM System based on eye gaze tracking system
Extrait des donnés par python et traitement par OpenCv
Utilisation du carte Rasspbery
Utilisation du machine learning pour l’apprentissage
Sécurité et traitement d’image
Environnement technique : Python, machine learning, OpenCV, RaspberryPi, image processing,
computer vision

FOCUS Tunis – Equipe Test/Validation Janvier 2015– Aout 2015
Contexte : Stage s’été
Projet en V
Integration ELK et ML
Manipulation d’ELK : installation d’elasticsearch, logstash, kibana et filebeat.
Gestion des logs avec ELK
Développement des flux d’alimentation
Participation au projet de mise en place d’une machine learning ML avec ELK , Splunk ..
Suivi les indicateurs de déploiements et utilisation de la stack et fournir un reporting global
Environnement technique : ELK, Elasticsearch, logstash, Kibana, Splunk

AUTRES EXPERIENCES

ENSI – Tunis Février-Juin 2014
Contexte : Projet de conception et de développement
Développement d’une interface de simu...

Voir le profil complet de ce freelance