Architecte de solutions data sur AWS : Conçu et déployé une architecture de
données sur AWS pour des pipelines de transformation
Développeur PySpark : Créé des pipelines de transformation de données en
PySpark pour analyser les parcours utilisateurs, augmentant significativement
l'efficacité des analyses BI.
Responsable Data Technique pour Opérations, Marketing et Ventes : Piloté
la stratégie et la gestion des données pour les départements Opérations,
Marketing et Ventes, traduisant les insights en stratégies d'affaires concrètes.
Expert en analyse des besoins métiers : Évalué et compris en profondeur
les exigences métier, assurant une alignement précis entre les objectifs
stratégiques et les solutions d'analyses mise en place
Superviseur de plateforme Data : Supervisé le développement et l'optimisation
de la plateforme Data en utilisant DBT et Snowflake, améliorant la gestion et
l'accessibilité des données.
Migration de PySpark à DBT : Mené la transition des processus de PySpark
vers DBT, rationalisant les opérations et renforçant la structure de traitement
des données.
Créateur des structures de données dans Snowflake : Défini et mis en œuvre
les couches Bronze, Silver et Gold dans Snowflake, facilitant une gestion de
données plus organisée et stratégique
Intégrateur de données pour CRM Salesforce : Contribué principalement à
l'alimentation du CRM Salesforce avec les données clients, optimisant ainsi les
processus de vente et de marketing grâce à une gestion de données précise
et ciblée.
Développeur de produits data chez SAP :
Conçu et mis en œuvre un produit d'intégration de données sur SAP Hana,
permettant une vision unifiée des clients par la fusion de plus de 500 millions
de lignes issues de dix sources différentes, en utilisant Python et SQL pour le
traitement des données.
Développé un outil prédictif sur SAP Hana pour l'identification et la prévision
du Churn, en appliquant des techniques de Big Data et de reporting intelligent
pour améliorer les stratégies de fidélisation client.
Architecte de solutions data sur Azure :
Déployé une architecture de données sur Azure, utilisant Databricks, Spark
et Kubernetes pour optimiser les pipelines de transformation de données des
plateformes de prêts numériques BPI.
Développeur PySpark pour analyses BI :
Créé des pipelines de transformation de données sur Databricks et Spark,
permettant des analyses BI approfondies des parcours utilisateurs, grâce à
des solutions de matching et des processus ETL avancés.
Machine Learning / Big Data
NLP/NLU
Page 2 of 4
Poliright
- News scraping, matching, topic and sentiment detection – Python, Keras
- HR data analysis, tickets prediction and analysis for future ressource allocation –
Python, Sickit Learn
- Company data deduplication and enhancement, converging internal and external
data from differents sources and differents orientations – Python, PySpark
Sentiment Analysis - LSTM+CNN or lexic
Get subject in sentence
Get the relation between subject and topic - Word Embedding
Get the person whose is about in the sentence
Java Android Application whose act as a robot
React Native JS Application to communication with the robot
6 months
Java Android Application whose act as a robot
React Native JS Application to communication with the robot
Build an architecture to optimize the use of files in a cloud solution
J2EE Interface to interact with the cloud solution
C program to communicate with automata
PHP Interface to configure an automaton