CV BASH : Trouvez votre consultant indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils BASH connectés

CV Consultant technico fonctionnel 4GL/Java
Mohamed

Consultant technico fonctionnel 4GL/Java

  • PARÇAY-MESLAY
ORACLE LINUX SQL 4GL INFORMIX JAVA J2EE SCRUM UML ANGULARJS
Disponible
CV Chef de projet data
Ivan

Chef de projet data

  • HAZEBROUCK
SQL AGILE PYTHON SCRIPT SHELL EXCEL BASH C# JAVA AZURE ITIL
Disponible
CV Consultant cybersécurité PENTEST
Houssam

Consultant cybersécurité PENTEST

  • Houilles
PENTEST
Disponible
CV Fullstack / DevOps
Malika

Fullstack / DevOps

  • ÉPINAY-SUR-SEINE
LINUX Cloud AWS HASHICORP TERRAFORM AMAZON AWS JAVASCRIPT NODE.JS
Disponible
CV Développeur full stack & devOps
Amin

Développeur full stack & devOps

  • PARIS
PHP LARAVEL MYSQL Angular NODE.JS DOCKER GIT
Disponible
CV Chef de projet IAM
Amine

Chef de projet IAM

  • Poissy
IAM SECURITE EXCEL BUSINESS OBJECTS Xi BO BO Xi DATAWAREHOUSE BI PKI SPLUNK
Disponible
CV DevOps
Saaid

DevOps

  • ANTONY
DEVOPS LINUX DYNATRACE SQL CI/CD Kubernetes ANSIBLE AZURE Cloud AWS Google Cloud Platform
Disponible
CV Développeur PYTHON
Adrien

Développeur PYTHON

  • Quincié-en-Beaujolais
PYTHON DJANGO QT SQL HTML5 CSS JAVASCRIPT DOCKER GIT POSTGRESQL
Disponible
CV Conseil, expertise et gestion de projet en infrastructure et systèmes informatiques
Edouard

Conseil, expertise et gestion de projet en infrastructure et systèmes informatiques

  • LILLE
EXCEL LINUX WINDOWS TOMCAT VMWARE ORACLE APACHE SQL SERVER IIS Microsoft Power BI
Disponible
CV Cloud Architect
Loic

Cloud Architect

  • Rampillon
ANSIBLE Cloud AWS HASHICORP TERRAFORM DOCKER ELASTICSEARCH
Disponible
Je trouve un CV BASH
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Soufiane,
freelance BASH résidant dans le Nord (59)

Expérience professionnelle

Août 2020 – Novembre 2022
Senior Technical Team Lead - Cloud Infrastructure Architect, IBM/Kyndryl, Lille.
Missions en tant que Lead Architecte Infrastructure Cloud/DevOps
Tâches:
{ Collaboration avec l’équipe Sales durant la phase de pre-sale
{ Etude de faisabilité technique de projets et participation à la rédaction des documents pour la réponse technique
et financière aux appels d’offre
{ Recrutement des profils techniques tels que des ingénieurs DevOps, des Site Reliability Engineers et des
Solutions Architects
{ Formation de l’équipe sur les nouvelles technologies DevOps, les plateformes Cloud (AWS), les outils
d’automatisation (Terraform, Ansible), les pipelines CI/CD (Github actions, Gitlab-ci), Docker/Kubernetes et
sur l’administration Linux (RedHat)
Projets:
{ Mise en place d’une solution infrastructure sur AWS distinée à l’hébérgement des applications en architecture
micro-services
- Réalisation d’une étude comparative approfondie des différentes solutions offertes par la plateforme cloud
AWS, telles que EKS EC2, EKS Fargate et ECS Fargate
- Elaboration des documents d’architecture nécessaires pour la mise en place de la solution
- Réalisation de POCs pour valider la faisabilité de la solution
- Participation active à la mise en place de la solution pour garantir une intégration optimale et une disponibilité
continue des applications
- Développement de scripts d’automatisation utilisant des outils tels que GitOps/ArgoCD, Github Actions,
Docker, Terraform, Bash, Python, pour faciliter et accélérer les déploiements et la gestion de l’infrastructure.
{ Mise en place d’une plateforme de provisionnement automatisé de VMs (en self-service) dans le cloud publiques
AWS en vue de facilité l’opération de la migration vers le cloud
- Conception de la solution, basée sur un workflow GitOps, répondant au besoin du client
- Réalisation et présentation des POCs au profit du client et élaboration des documents d’architecture (HLD
et LLD)
- Mise en place des clusters Ansible Tower sur des machines EC2 ciblant la gestion des instances EC2 dans
plusieurs regions et plusieurs comptes aws.
- Creation d’un cluster docker swarm pour héberger les agents github actions runners executants jobs Packer,
Terraform et Ansible Tower workflows.
- Mise en place de la solution (Gihub CI/CD workflows, Ansible Tower, Terraform, Packer, Lambda Functions,
Service Catalog, EC2, Docker, DynamoDB, RDS, Route53, Infoblox )
{ Expertise Terraform: Golden Image Build et Provisioning/Decommisioning workflows sur AWS et Azure
- Développement de modules Terraform et gestion de leurs versions via les repositories GitHub Enterprise.
- Mise en place de nouveau produit sur AWS Service Catalog pour les quatres patterns Redhat7, Redhat 8,
Oracle sur Redhat 7 et Oracle sur Redhat 8 pour les environnements de test et de prod.
- Generation des goldens images redhat 7/8 sur sur AWS avec Packer et sur Azure en utilisant Azure VM
Image Builder.
- Amelioration des pipelines de build de golden images:
· AWS: AWS Service Catalog, CodePipeline, CodeCommit, CodeBuild, Packer, Bash, Python
· Azure: Azure Pipelines, Azure Repos, Azure VM Image Builder, Bash, Python
- Mise en place de workspaces Terraform et leur intégration avec les repositories et branches sur GitHub
- Activation du service Red Hat Cloud Access sur Azure pour accéder aux modèles d’images de machines
virtuelles officiels de Red Hat sur les subscriptions Azure
- Accompagnement de l’équipe dans l’adoption des outils cloud sur AWS et l’utilisation des outils
d’automatisation Terraform et Packer.
{ Migration de DB2 Warehouse MPP vers Azure AKS
- Création et configuration du cluster AKS et de la solution de stockage Azure NetApp Files
- Transformation de la solution DB2 vers une architecture en micro-services pour la rendre cloud native en
vue de son déploiement sur Azure Kubernetes Service
- Développement des manifests Kubernetes définissant les différents composants de la solution DB2 et leur
déploiement sur le cluster AKS
Technologies: AWS, Azure, AKS, EKS, Fargate, AWS Service Catalog, AWS Lambda, AWS RDS, AWS Backup,
AWS Secret Manager,AWS Route53, AWS System Manager, Kubernetes, GitLab/GitLab-CI, GitHub, GitHub
Actions, ArgoCD, Ansible, Ansible Tower, Ansible AWX, Packer, Terraform/Terraform Enterprise, CloudFormation,
Bash, Python, DB2 Warehouse, vMware vSphere, Hashicorp Vault, Prometheus, Infoblox

Mars 2019 – juin 2020
Consultant DevOps, Umanis, Lille.
Mission chez Adeo Services en tant que Référent technique DevOps/Cloud
Tâches:
{ Assurer le support N3 Rhel, Middleware, Oracle, Mysql, Redis, PostgreSQL
{ Formation et accompagnement des membre d’équipe sur l’adoption et l’utilisation de l’ensemble des outils et de
solutions cloud: GCP, Oracle Cloud, DAB/Ansible, Vault, PingIdentity , DataLake/BigQuery, ServiceNow API
{ Administration de la plateforme Cloud GCP (Projet) et de la plateforme Oracle Cloud (Tenent)
{ Gestion du service github cloud ( création de repos, gestion d’utilisateur ... ) , Gitlab cloud, Artifactory,
Projets:
- Migration OEM 12c vers OEM 13c: Migration de plus de 1400 serveurs (Redhat, Oracle Linux et AIX)
de l’Oracle Enterprise Manager 12c vers la version 13c
{ Création des packages rpm pour l’agent OEM 13c pour facilité et automatiser le deploiement.
{ Création des scripts pour l’automatisation de la migration de l’ensemble des serveurs: Bash, Python/Fabric,
Ansible.
{ Dévelopment des scripts d’automatisation de la migration.
{ Création des comptes de service et la génération des tokens d’authentifications.
{ Synchronisation des répos entre gitlab et github pour des fins de l’integration continue avec Gitlab-ci.
- Industrialisation: Automatisation de differentes tâches (via Ansible/DAB, Fabric, Bash, Python) et la mise
en place des pipelines CI/CD (Github, Gitlab)
{ Mise en place d’un répo rpm sur Jfrog Artifact commun au produit ORACLE et au produit ON
PREM-DATABASES pour l’hébergement des packages rpm.
{ Création des packages rpm.
{ Externalisation des scripts ansible du déploiement des bases de données Oracle 11g/12c vers github.
{ Dévelopement des script d’automatisation avec Ansible, Python et Bash.
{ Migration des repos git de gitlab vers github..
{ Automatisation des tâches post-déploiement suivantes:
- Ajout des yum repositories dans les VMs.
- Installation de l’agent Cloud Control 13c et configuration de la communication sécurisée via TLS 1.2.
- Déploiement des clés ssh de l’Oracle Enterprise Manager Cloud Control dans les VMs pour l’utilisateur
oracle.
- Application des scripts de hardening pour répondre aux exigences de l’équipe sécurité.
- Projet facturation: Conception et mise en place d’un Data Pipeline ETL
Conception et dévelopement d’une application Python (Environ 4000-5000 ligne de code) pour l’application des
règles d’UO et l’envoie de la consommation au portail de facturation via API: GCP, ServiceNow, BigQuery, Bash,
Python, SQL, Hashicorp Vault
- Mise en place d’une liaison site-to-site: Mise en place de liaison VPN site-to-site reliant le datacenter
on-promises sur site à la plateforme cloud Oracle OCI. Cette tâche impliquait l’installation de l’infrastructure VPN
et la coordination avec les équipes internes et externes pour une intégration fluide entre les deux environnements
Technologies: GCP, BigQuery, GKE, Oracle Public Cloud, Oracle Enterprise Manager Cloud Control, Jfrog
Artifactory, HashiCorp Vault, Ansible, Fabric, Python, Flask, Bash, Gitlab/Gitlab-ci, Docker, Kubernetes, Github,
Vmware, PingIdentity, ServiceNow, Redhat, AIX.

Mai 2017 – Février 2019
Administrateur Plateforme Cloud, Maroc DataCenter By Medasys, Rabat.
- Conception, implémentation et administration de solutions hautement disponibles:
{ Offres VPS (KVM) et Linux containers (LXC).
{ Hébergement mutualisé basé sur la solution Cpanel & Cloud Linux.
{ Cluster de serveurs dns basé sur la solution PowerDNS.
{ Solution de messagerie collaborative, évolutive basée sur Zimbra.
{ Service managed Kubernetes
{ Plateforme de cloud publique basé:
- Orchestrator: CloudStack
- Hypervisor: Vmware vSphere 6.5
- Stockage: Stockage primaire ( SAN over Fibre Channel), Stockage secondaire ( NAS over dedicated 10
Gigabit Ethernet )
- Serveur de management: Hautement disponible en utilisant les solutions de clustring open source basé
sur Pacemaker & Corosync.
- Cloud DB: Hautement disponible et hautement performant deploiement du CloudDB en utilisant RAID
10 et un cluster de serveurs Mysql du type Master-Slave pour un plan de Disaster Recovery.
- Développement de politiques de Backup et des plans de reprise d’activité
- Développement des scripts d’automatisation: Python, Bash, Ansible, Fabric, Packer.
- Administration de la Plateforme de gestion des noms de domaines.
- Gestion des certificats SSL.
- Préparation et implémentation des PoCs de démo pour le profit de l’équipe d’avant-vente.
- Conception et implémentation des architectures techniques résilientes et évolutives aux profits des clients.
- Assurer le support N2/N3 des incidents lieé à la platefome Cloud, Systèmes, Platefome d’hébergement mutualisé,
Réseau .. .
- Elaboration et rédaction des politiques de sécurité, du plan de continuité/reprise d’activité et implémentation
des solutions de sécurité en vue de se conformer aux exigences de la certification PCI DSS.
- Réalisation des audits de sécurité régulièrs (audit des régles du firewall, scan de vulnérabilités, scan des applications
Web ).
Technologies: Serveur HPE Proliant, Fortigate, Sophos UTM, Pfsense, Cisco routers, Observium, Cloustack,
Vmware Vsphere, XenServer, KVM, Proxmox, cPanel, Bind, Powerdns, Postfix, Zimbra, Apache, Glassfish, Wildfly,
Nginx, Squid, HAproxy,Veeam, SAN ( MSA 2040, 3PAR, Compellent), NAS (Qnap), Brocade SAN Switches,
ELK Stack.

Mai 2015 – Mai 2017
System & Security Administrator, ********,...

Voir le profil complet de ce freelance