Missions MARVEL : Trouvez votre future mission indépendante

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions MARVEL à pourvoir

Product Designer (UX Research)

SKETCH FIGMA ADOBE XD AXURE INVISION
ASAP
75 - Paris
6 mois
Voir la mission

Formateur ElasticSearch / MARVEL

ELASTICSEARCH
ASAP
69 - Lyon
3 jours ouvrés
Voir la mission
Je trouve ma mission MARVEL
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Mehdi,
freelance MARVEL résidant dans Paris (75)

  • Responsable Opérationnel SOC SSI

    NATIXIS- Paris
    Jan 2020 - aujourd'hui

    • Pilotage de l’équipe du SOC (10 Collaborateurs)
    • Gestion des alertes de sécurité
    • Superviser les contrôles de N1 et N2 effectués sur Splunk
    • Prise en charge des nouveaux scénarios de détection sur Splunk (Définition, développement,
    qualification, déploiement et documentation)
    • Mise en place de Scenarios de DLP (Mail, Web, Application métier sensible…)
    • Gérer la pertinence des évènements corrélés et des alertes générées par Splunk
    • Réalisation d’enquêtes
    • Proposer un plan d'amélioration sur les moyens de détection en place
    • Revoir les processus de gestion des incidents de sécurité
    • Piloter les comités de suivi avec les RSSI et la DSI
    • Fournir un rapport sécurité mensuel conforme aux attentes des RSSI
    • Assistance Utilisateur : Bonnes pratiques pour l’optimisation de recherches et
    accompagnement dans le développement de tableaux de bord et création de
    recherches accélérées (data model acceleration,summary indexing …)
    • Création de tableaux de bords complexes avec filtrage en fonction du rôle de l’utilisateur
    • Intégration de Centreon dans SPLUNK et remonter les alertes dans des tableaux de bords
    • Revue de l’architecture Splunk (passage de cluster de 12 indexeurs à 24
    indexeurs)
    • Supervision et maintenance de la plateforme Splunk
    • Intégration SPLUNK ES ( Splunk Entreprise Security)

  • Architecte SPLUNK- SOC

    SOCIETE GENERALE - Paris
    Jan 2018 - Jan 2019

    • Mise en place de la plateforme SPLUNK pour des uses cases de sécurité
    • Mise en place d’un Cluster sur les instances d’Indexer
    • Revue de l’architecture Splunk (passage de cluster de 12 indexeurs à 24
    indexeurs)
    • Mise en place d’un déploiement server
    • Activation de l’authentification des utilisateurs SPLUNK via leLDAP
    • Configuration du Syslog pour la collecte de donnée vers Splunk
    • Collecte de metrics et logs depuis Shinken, Unicron (CMDB),N agios
    • Développement de Uses cases en Capacity planning Infra et sécurité
    • Développements de Rapport et Dashboard avancé
    • Définition des solutions de stockage et la structuration des données (Stockage en S3)
    • Déploiement du dbconnect pour collecter les données d'une base de données externe
    vers l'outil Splunk
    • Déploiement du Module ITSI, IT Service Intelligence pour la maintenance
    prédictive
    • Remonter les alertes Nagios dans ITSI
    • Monitoring avec Gafana et développement de plugins
    • Développement du toolkit machine learning
    • Assister les équipes sur splunk dans la maintenance de tableaux de bord en
    production
    • Former l’équipe de sécurité aux recherches complexes et aux modules de splunk

  • Consultant Expert SPLIJNK

    DEXIA BANQUE- Paris
    Jan 2017 - aujourd'hui

    Implémentation, Configuration et Administration de Splunk
    ⦁ Maintien en condition opérationnelle de l’infrastructure de sécurité
    ⦁ Déploiement et industrialisation de cluster Hadoop
    ⦁ Traitements MapReduce

  • Consultant Expert SPLIJNK

    DEXIA BANQUE- Paris
    Jan 2017 - aujourd'hui

    Implémentation, Configuration et Administration de Splunk
    ⦁ Maintien en condition opérationnelle de l’infrastructure de sécurité
    ⦁ Déploiement et industrialisation de cluster Hadoop
    ⦁ Traitements MapReduce

  • Administrateur BIG DATA

    Dexia Banque -Paris
    Jan 2017 - Jan 2018

    Planifier, configurer, déployer, run, monitor, troubleshoot et sécuriser les clusters HADOOP,ELK
    • Définition de l’architecture physique et applicative d’un cluster Hadoop multi
    environnement logiques (REC, DEV, PRD)
    • Automatisation d’installation des composants Hadoop (HWX) via Ansible
    • Activation de la haute disponibilité sur tous les services critiques (HDFS, YARN, Hive)
    • Intégration des composants à l’active directory d'entreprise
    • Activation de la sécurité Hadoop via SSL et authentification Kerberos
    • Remontée des logs applicatives dans un ELK
    • Gestion des habilitations centralisées via Ranger
    • Support aux datascientists utilisant Zeppelin (interpreter Scala, python, R)
    • Administration du cluster Kafka pour une application de transactions bancaires
    (définitions des topics, nombre de partitions/producers/consommateurs)
    • Throubleshooting et optimisation des jobs Spark

  • Consultant DATA ENGINEER

    SOCIETE GENERALE - Paris
    Jan 2015 - Jan 2017

    Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,lngénierie Sociale)

    ⦁ Administration de la plateforme BIG DATA Splunk: Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des requêtes, Création des rapports et Dashboard
    ⦁ Définition des solutions de stockage et la structuration des données.
    ⦁ Collection des données d'une base de données externe vers l'outil Splunk via dbconnect, forwarders.
    ⦁ Mise en place de nouvelles régles de sécurité
    ⦁ Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des Stats
    ⦁ Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la modélisation statistique des données.
    ⦁ Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de troie

  • Jan 2015 - Jan 2017

    Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,lngénierie Sociale)

    ⦁ Administration de la plateforme BIG DATA Splunk: Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des requêtes, Création des rapports et Dashboard
    ⦁ Définition des solutions de stockage et la structuration des données.
    ⦁ Collection des données d'une base de données externe vers l'outil Splunk via dbconnect, forwarders.
    ⦁ Mise en place de nouvelles régles de sécurité
    ⦁ Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des Stats
    ⦁ Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la modélisation statistique des données.
    ⦁ Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de troie

  • Responsable de la plateforme Splunk

    SOCIETE GENERALE - Paris
    Jan 2015 - Jan 2017

    Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,
    lngénierie Sociale)
    • Administration de la plateforme BIG DATA Splunk:
    • Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des
    requêtes, Création des rapports et Dashboard
    • Définition des solutions de stockage et la structuration des données.
    • Collection des données d'une base de données externe vers l'outil Splunk via
    dbconnect, forwarders.
    • Mise en place de nouvelles règles de sécurité
    • Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des
    Stats
    • Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la
    modélisation statistique des données.
    • Déploiement du Module IT Service Intelligence
    • Développement du toolkit machine learning
    • Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de
    troie
    • Déploiement et industrialisation de cluster Hadoop

  • Stage de fin d'Etudes

    BNP PARIBAS PERSONAL FINANCE - Paris
    Jan 2015 - Jan 2015

    Sujet: Prototypage et Analyse des technologies BigData
    ⦁ Analyse et Prototypage ELK (Logstash,Elasticsearch,Kibana,shield et marvel)
    ⦁ Réalisation de la pile de traitement ELK,documentation de la topologie et configurations inputs/filtres/output
    ⦁ Analyse et modélisation des besoins utilisateurs en recherche,visualisation,reporting
    ⦁ Collecte des données, Filtrage des données avec logstash et indexation dans Elasticsearch
    ⦁ Intégration de Spark de la distribution HortonWorks
    ⦁ Mise en place de L'outil SmartCloud Log Analytics "SCALA" d'IBM

  • Stage de fin d'Etudes

    GROUP INOV- RABAT
    Jan 2014 - Jan 2014

    Sujet: Mise en place d'un outil d'intelligence opérationnel au niveau d'un opérateur Telecom
    ⦁ Etude du besoin de l'opérateur et rédaction du cahier de charges
    ⦁ Etude des différentes solutions d'intelligence opérationelle
    ⦁ Gestion centralisée de fichiers logs (CDRs, Syslog, log4j..) et gestion des alertes (via email,RSS,SNMP)
    ⦁ Reporting puissant et analytiques (Création de rapports personnalisés et des Dashboards)
    ⦁ Mise en place de l'outil SPLUNK

Voir le profil complet de ce freelance