Ali - Architecte de données

Ref : 160613L002
Email vérifié
  • Profil

    Consultant, Data Engineer, DBA (61 ans)

  • Mobilité
    Totalement mobile
  • Statut
    En portage salarial
  • Tarif Journalier Moyen
    Voir le tarif
Photo d'Ali, Architecte de données
Compétences
MONGODB
PYSPARK
APACHE KAFKA
POSTGRES
Aerospace & Defense
Expériences professionnelles
  • Data Architect / Engineer

    GREENFLEX (FILIALE DE TOTAL)
    Jan 2019 - Jan 2019

    Contexte
    Design d’une stack DataStream et développement d’un POC permettant de collecter et traiter des messages provenant
    de l’IoT dans un flux temps réel. Restitution des données dans un pipeline ML.
    Responsabilités
    - Rédaction d’une expression de besoins à partir d’un memo et de diverses collectes métier
    - Design d’une stack Kappa étendue
    - Définition des prérequis infra, framework et divers outils
    - Installation et déploiement de l’environnement complet du POC à partir d’un EC2 en mode bare-metal
    - Développement du POC correspondant en mode « hors sol » (PySpark)
    - Tests et collecte des metrics avec un jeu de données de 11M de messages
    - Portage du POC dans un environnement AWS Managé / Cluster DataBricks
    - Développement de deux uses cases en mode NoteBook Databricks
    - Parallélisation des notebook (ThreadPool)
    - Suivi des développements et accompagnement de l'équipe
    - Test de Qualifications (Pré production /Production)
    Livrables
    - POC Totalement fonctionnel incluant deux uses cases
    - Mise en pré-production
    - Documentation complète du code et des librairies écrites
    - Documentation de l’architecture
    - Livraison de tous les fichiers de configuration et bash de déploiement

    - SPARK / DATABRICK (le projet a été dans un premier temps écrit dans un environnement Open source puis porté sur Databricks) - Infra : Cluster AWS : Kafka / Databricks - Monitoring applicatif : ELK / APM-SERVER / KIBANA - Monitoring stack : PROMETHEUS / GRAFANA
  • Data Architect / Engineer

    AMARTIS
    Jan 2017 - Jan 2019

    Contexte
    Conception et développement d’un DataLake à partir de multiples sources de données hétérogènes et non qualifiées
    (DataGouv, Scrapping, Base Client, Base commerciales).
    Implémentation da l’API GraphQL avec un bréviaire de requêtes type.
    Responsabilités
    - Audit de l’architecture DataLake en cours de développement (S3 / Delta Parquet / Postgres)
    - Proposition d’une architecture corrective (plus simple et proche du modèle Lambda)
    - Développement d’un projet pilote avec la nouvelle architecture
    - Proposition d’une stratégie de migration (portage et/ou réécriture)
    - Réorganisation de l’équipe de développement avec plus de concentration des compétences
    - Design de pattern pour l’implémentation de l’API GraphQL (bréviaire de requêtes mutation et fetch)
    - Portage du Datalake vers l’architecture cible.
    - Formation des utilisateurs finaux (ce sont des analytics)
    Suivi des développements et accompagnement de l'équipe
    - Analyse des impacts des évolutions sur l'existant
    - Test de Qualifications (Pré production /Production)
    - Mise en pré-production.
    Livrables
    - Ensembles de pipeline SPARK / Notebook DATABRICKS
    - Documentation complète de l’API en plus du code commenté
    - Formation et montée en compétence des équipes junior client

    - SPARK / DATABRICKS / NIFI - POSTGRE / S3 DELTA - GRAPHQL - AWS
  • Data Architect / Engineer

    TERSEA
    Jan 2017 - Jan 2017

    Contexte
    Conception d’un Stream realtime pour alimenter un pipeline Machine Learning.
    Réduire le taux de nuisance (appels qui n’aboutissent pas) et réduction des temps d’attente
    Optimiser la disponibilité des téléopérateurs
    Réaliser un modèle de prédiction pour piloter ASTERISK (Auto commutateur téléphonique)
    Responsabilités
    - Audit des sources de données (stream et batch)
    - Rédaction d’une expression de besoins pour répondre à la première problématique qu’est la collecte de données asynchrones et
    la construction d’un flux de données continu et qualifié.
    - Design d’une stack full stream de type Kappa
    - Développement d’un pilote en conditions préproduction
    - Tests de fonctionnement et de qualification
    - Mise en tension du flux à 150%
    - Rédaction d’une expression de besoins pour répondre à la problématique d’implémentation d’une ML en stream
    - Co-développement d’une ML sur notebook Databricks
    - Développement d’un connecteur stream / notebook
    - Rédaction de la documentation technique
    - Tests fonctionnels
    Livrables
    - Conception et développement d’une librairie pySpark pour ASTERISK capable de dérouter les appels entrants et sortants
    (streaming).
    - Conception et développement du pipeline d’analyse et Data cleaning : obtention du modèle de prédiction
    - Implémentation des deux libaririe dans l’environnement de production

    - DATABRICKS SPARK MLIB / Scala / PySpark - ASTERISK - CASSANDRA - KAFKA
  • Service Line Manager de la ligne NTIC

    Atos Origin
    Jan 2008 - Jan 2009

    Description : Composée d’un ensemble de 90 Collaborateurs, incluant Chefs de projet et Directeurs de projets, ma fonction consiste à assurer une gestion de projet cohérente et performante, d’assurer les échanges avec les Front-Office (France, Belgique) Atos, de m’investir dans les opérations d’avant-ventes ainsi que de garantir une qualité dans le recrutement des ressources humaines.

  • Directeur de Projet

    Crédit Agricole du Maroc
    Jan 2007 - Jan 2008

    - Projet : Refonte du SI Agence
    - Mission(s) et réalisations : SFG

    Spécifique, architecture 2/3
  • Mentra BMCI, BMCE, Wafamonétique, Banque Centrale Populaire, Salafin
    Jan 1995 - Jan 2007

    Directeur Général de Mentra (Actionnaire de l’entreprise)

    - Description : SSII spécialisée dans le domaine bancaire au départ, puis périmètre élargi à d’autres secteurs. Première entreprise au Maroc à avoir proposé des compétences dans le développement utilisant des « nouvelles technologies » (application avec client léger, la première application pour la BMCI datant de 1996 : le client Internet Explorer 3.1 était la version utilisée …). Avec un effectif de 21 (au maximum de son évolution), Mentra à compté plus de 40 entreprises clientes de renom.

  • Responsable développement IHM

    SIGO Conseil (Paris)
    Jan 1992 - Jan 1995

    - Description : SSII spécialisée dans le domaine bancaire, j’ai participé à un projet de recherche et développement parrainé par : IBM France, Bull, NCR, BNP, GAN pour le compte des Caisses d’Epargne. Ce projet consistait à valider la migration du moteur central d’un applicatif bancaire (celui des Caisses d’épargnes) sous système mainframe vers une plateforme Unix, Client/Serveur avec une base de donnée Terradata. Mon rôle consistait à développer les interfaces entre les applications utilisateur et le moniteur transactionnel TopEnd (NCR). Aujourd’hui Sigo Conseil à été rachetée par Viveo.

Études et formations
  • Diplômer de l’Ecole de Médecine de Paris Ingénieur EHEI

    Ecole des Hautes d’Etudes d’Informatique (Université Paris V). Informatique – Mathématiques appliquées et Sciences de la vie
  • Formation continue DEA Mathématiques fondamentales sur les Algorithmes génétiques

Autres compétences
DIPLOMES

Certificat de Synthèse Clinique et Thérapeutique – CHU Paris-Ouest Université Paris V
1992 : DESS Mathématiques Appliquées Paris V

LANGUE
Anglais professionnel
Espagnol : maternelle
Arabe : dialectal

COMPETENCES FONCTIONNELLES
Animation d’ateliers mixtes (techniques et métier)
Rédaction d’un dossier d’architecture et rédaction du DAT
Rédaction de la Roadmap et de la trajectoire projet
Production de planning / sprint / US détaillés
Définition des design pattern en vue de la réalisation de POC / POV
Assurer le support et les méthodologies dans la phase d’intégration

COMPETENCES TECHNIQUES
Langages Python (15 ans), SPARK / PySpark(10 ans), C++, SQL(20ans), DSL(5 ans), Scala
Base de données AWS [5 ans], POSTGRES [> 10 ans], MONGODB [6 ans], PROMETHEUS (4 ans)
Framework SPARK / DATABRICKS [5 ans], KAFKA [7 ans], Streamlit (4 ans), Docker (5 ans)
Nuitka (3 ans)
Modélisation HACKOLADE
HADOOP - KAPPA – LAMBDA – SMACK
Outils connexes Miro, Jira, GitLAB, Evernote
Cloud - AWS [Formation : GK4502 faite le 05/2022]
- AWS [Formation : GK1980 faite le 06/2022].certification en préparation
- AWS [Formation : GK7378 faite le 06/2022].certification en préparation
- AWS [Formation : GK7377 faite le 09/2022].certification en préparation

D'autres freelances
Consultant MONGODB

Ces profils pourraient vous intéresser !
CV Consultant Développeur MULESOFT
Ange

Consultant Développeur MULESOFT

  • LE BLANC-MESNIL
API RESTful MYSQL MULESOFT ANYPOINT PLATFORM PYTHON JAVA TIBCO BUSINESSWORKS MONGODB CASSANDRA JENKINS DOCKER
CV Développeur Web - Consultant Transition Digitale
Benjamin

Développeur Web - Consultant Transition Digitale

  • BLAGNAC
HTML CSS REACT.JS PMO JAVASCRIPT NODE.JS MONGODB SWIFT
CV Consultant technico-fonctionnel
Hery Mamy

Consultant technico-fonctionnel

  • COURBEVOIE
PYTHON JAVASCRIPT React Native SHAREPOINT MONGODB DEVOPS GITLAB DOCKER ANSIBLE MOA
CV Développeur Node.js & Java
Ismaël

Développeur Node.js & Java

  • RENNES
J2EE JAVA SQL JAVASCRIPT NODE.JS MYSQL Angular UNIX Next.js MONGODB
CV Architecte J2EE, Expert Java
Antoine

Architecte J2EE, Expert Java

  • LE PERREUX-SUR-MARNE
J2EE JAVA SQL JSON REST LOAD BALANCING SPRING Spring Boot RabbitMQ MONGODB
CV Architecte data
Omar

Architecte data

  • EAUBONNE
DECISIONNEL MONGODB
Disponible
CV Développeur Fullstack Angular/Node/Mongo
Gary

Développeur Fullstack Angular/Node/Mongo

  • LEVALLOIS-PERRET
NODE.JS Angular MONGODB UNIX PYTHON
CV Développeur TALEND DI /Cloud
Youssef

Développeur TALEND DI /Cloud

  • MASSY
TALEND SQL SAP BIGQUERY SALESFORCE MONGODB AZURE APACHE KAFKA TALEND DI OpCon
Disponible
CV Expert Node / NestJS et Angular
Louis

Expert Node / NestJS et Angular

  • STRASBOURG
TypeScript JAVASCRIPT NODE.JS API RESTful Angular MONGODB DOCKER
CV Data Ingénieur, Expert ETL, Python
Arnold

Data Ingénieur, Expert ETL, Python

  • LYON
ODI ORACLE 11G SHELL UNIX PL SQL PYTHON INFORMATICA DOCKER UML MONGODB PRINCE II