Ali - Architecte de données
Ref : 160613L002-
Domicile
75011 PARIS (Maroc)
-
Profil
Consultant, Data Engineer, DBA (61 ans)
-
MobilitéTotalement mobile
-
StatutEn portage salarial
-
Tarif Journalier MoyenVoir le tarif

-
Data Architect / Engineer
GREENFLEX (FILIALE DE TOTAL)Jan 2019 - Jan 2019Contexte
- SPARK / DATABRICK (le projet a été dans un premier temps écrit dans un environnement Open source puis porté sur Databricks) - Infra : Cluster AWS : Kafka / Databricks - Monitoring applicatif : ELK / APM-SERVER / KIBANA - Monitoring stack : PROMETHEUS / GRAFANA
Design d’une stack DataStream et développement d’un POC permettant de collecter et traiter des messages provenant
de l’IoT dans un flux temps réel. Restitution des données dans un pipeline ML.
Responsabilités
- Rédaction d’une expression de besoins à partir d’un memo et de diverses collectes métier
- Design d’une stack Kappa étendue
- Définition des prérequis infra, framework et divers outils
- Installation et déploiement de l’environnement complet du POC à partir d’un EC2 en mode bare-metal
- Développement du POC correspondant en mode « hors sol » (PySpark)
- Tests et collecte des metrics avec un jeu de données de 11M de messages
- Portage du POC dans un environnement AWS Managé / Cluster DataBricks
- Développement de deux uses cases en mode NoteBook Databricks
- Parallélisation des notebook (ThreadPool)
- Suivi des développements et accompagnement de l'équipe
- Test de Qualifications (Pré production /Production)
Livrables
- POC Totalement fonctionnel incluant deux uses cases
- Mise en pré-production
- Documentation complète du code et des librairies écrites
- Documentation de l’architecture
- Livraison de tous les fichiers de configuration et bash de déploiement -
Data Architect / Engineer
AMARTISJan 2017 - Jan 2019Contexte
- SPARK / DATABRICKS / NIFI - POSTGRE / S3 DELTA - GRAPHQL - AWS
Conception et développement d’un DataLake à partir de multiples sources de données hétérogènes et non qualifiées
(DataGouv, Scrapping, Base Client, Base commerciales).
Implémentation da l’API GraphQL avec un bréviaire de requêtes type.
Responsabilités
- Audit de l’architecture DataLake en cours de développement (S3 / Delta Parquet / Postgres)
- Proposition d’une architecture corrective (plus simple et proche du modèle Lambda)
- Développement d’un projet pilote avec la nouvelle architecture
- Proposition d’une stratégie de migration (portage et/ou réécriture)
- Réorganisation de l’équipe de développement avec plus de concentration des compétences
- Design de pattern pour l’implémentation de l’API GraphQL (bréviaire de requêtes mutation et fetch)
- Portage du Datalake vers l’architecture cible.
- Formation des utilisateurs finaux (ce sont des analytics)
Suivi des développements et accompagnement de l'équipe
- Analyse des impacts des évolutions sur l'existant
- Test de Qualifications (Pré production /Production)
- Mise en pré-production.
Livrables
- Ensembles de pipeline SPARK / Notebook DATABRICKS
- Documentation complète de l’API en plus du code commenté
- Formation et montée en compétence des équipes junior client -
Data Architect / Engineer
TERSEAJan 2017 - Jan 2017Contexte
- DATABRICKS SPARK MLIB / Scala / PySpark - ASTERISK - CASSANDRA - KAFKA
Conception d’un Stream realtime pour alimenter un pipeline Machine Learning.
Réduire le taux de nuisance (appels qui n’aboutissent pas) et réduction des temps d’attente
Optimiser la disponibilité des téléopérateurs
Réaliser un modèle de prédiction pour piloter ASTERISK (Auto commutateur téléphonique)
Responsabilités
- Audit des sources de données (stream et batch)
- Rédaction d’une expression de besoins pour répondre à la première problématique qu’est la collecte de données asynchrones et
la construction d’un flux de données continu et qualifié.
- Design d’une stack full stream de type Kappa
- Développement d’un pilote en conditions préproduction
- Tests de fonctionnement et de qualification
- Mise en tension du flux à 150%
- Rédaction d’une expression de besoins pour répondre à la problématique d’implémentation d’une ML en stream
- Co-développement d’une ML sur notebook Databricks
- Développement d’un connecteur stream / notebook
- Rédaction de la documentation technique
- Tests fonctionnels
Livrables
- Conception et développement d’une librairie pySpark pour ASTERISK capable de dérouter les appels entrants et sortants
(streaming).
- Conception et développement du pipeline d’analyse et Data cleaning : obtention du modèle de prédiction
- Implémentation des deux libaririe dans l’environnement de production -
Service Line Manager de la ligne NTIC
Atos OriginJan 2008 - Jan 2009Description : Composée d’un ensemble de 90 Collaborateurs, incluant Chefs de projet et Directeurs de projets, ma fonction consiste à assurer une gestion de projet cohérente et performante, d’assurer les échanges avec les Front-Office (France, Belgique) Atos, de m’investir dans les opérations d’avant-ventes ainsi que de garantir une qualité dans le recrutement des ressources humaines.
-
Directeur de Projet
Crédit Agricole du MarocJan 2007 - Jan 2008- Projet : Refonte du SI Agence
Spécifique, architecture 2/3
- Mission(s) et réalisations : SFG -
Mentra BMCI, BMCE, Wafamonétique, Banque Centrale Populaire, SalafinJan 1995 - Jan 2007
Directeur Général de Mentra (Actionnaire de l’entreprise)
- Description : SSII spécialisée dans le domaine bancaire au départ, puis périmètre élargi à d’autres secteurs. Première entreprise au Maroc à avoir proposé des compétences dans le développement utilisant des « nouvelles technologies » (application avec client léger, la première application pour la BMCI datant de 1996 : le client Internet Explorer 3.1 était la version utilisée …). Avec un effectif de 21 (au maximum de son évolution), Mentra à compté plus de 40 entreprises clientes de renom. -
Responsable développement IHM
SIGO Conseil (Paris)Jan 1992 - Jan 1995- Description : SSII spécialisée dans le domaine bancaire, j’ai participé à un projet de recherche et développement parrainé par : IBM France, Bull, NCR, BNP, GAN pour le compte des Caisses d’Epargne. Ce projet consistait à valider la migration du moteur central d’un applicatif bancaire (celui des Caisses d’épargnes) sous système mainframe vers une plateforme Unix, Client/Serveur avec une base de donnée Terradata. Mon rôle consistait à développer les interfaces entre les applications utilisateur et le moniteur transactionnel TopEnd (NCR). Aujourd’hui Sigo Conseil à été rachetée par Viveo.
-
Diplômer de l’Ecole de Médecine de Paris Ingénieur EHEI
Ecole des Hautes d’Etudes d’Informatique (Université Paris V). Informatique – Mathématiques appliquées et Sciences de la vie -
Formation continue DEA Mathématiques fondamentales sur les Algorithmes génétiques
Certificat de Synthèse Clinique et Thérapeutique – CHU Paris-Ouest Université Paris V
1992 : DESS Mathématiques Appliquées Paris V
LANGUE
Anglais professionnel
Espagnol : maternelle
Arabe : dialectal
COMPETENCES FONCTIONNELLES
Animation d’ateliers mixtes (techniques et métier)
Rédaction d’un dossier d’architecture et rédaction du DAT
Rédaction de la Roadmap et de la trajectoire projet
Production de planning / sprint / US détaillés
Définition des design pattern en vue de la réalisation de POC / POV
Assurer le support et les méthodologies dans la phase d’intégration
COMPETENCES TECHNIQUES
Langages Python (15 ans), SPARK / PySpark(10 ans), C++, SQL(20ans), DSL(5 ans), Scala
Base de données AWS [5 ans], POSTGRES [> 10 ans], MONGODB [6 ans], PROMETHEUS (4 ans)
Framework SPARK / DATABRICKS [5 ans], KAFKA [7 ans], Streamlit (4 ans), Docker (5 ans)
Nuitka (3 ans)
Modélisation HACKOLADE
HADOOP - KAPPA – LAMBDA – SMACK
Outils connexes Miro, Jira, GitLAB, Evernote
Cloud - AWS [Formation : GK4502 faite le 05/2022]
- AWS [Formation : GK1980 faite le 06/2022].certification en préparation
- AWS [Formation : GK7378 faite le 06/2022].certification en préparation
- AWS [Formation : GK7377 faite le 09/2022].certification en préparation