Contexte
Au sein de l'équipe BI FICG (Finlake), j'ai participé à la mise en place d'un script d'ingestion des données dans le data lake, à partir de
la base relationnelle de l'outil LoanIQ. Le script assure une phase d'historisation des données brutes avant de les stocker dans les
tables Hives nales.
En deuxième lieu, j'ai particpé au développment d'une API Python permettant d'eectuer des recherches optimisées sur des
documents PDF indexés dans Apache Solr.
Missions
Développement d'un script pyspark d'ingestion des données d'une base relationnelle de l'outil Loan IQ dans le data lake
Découverte de l'outil d'indexation Apache Solr
Animation d'une présentation à l'équipe pour introduire fonctionnellement et techniquement Apache Solr
Indexation des documents binaires (pdf, word) ainsi que des documents semi structurés (json, csv) à l'aide de la méthode Curl
La gestion de l'authentication à Apache Solr ainsi que l'installation des diérentes bibliothèques dans un environnement sécurisé
par le protocole Kerberos
Développement d'un script capable d'indexer, dans Apache SOLR et à l'aide des job SOLR Hadoop qui utilisent Apache Tika, des
documents PDF stockés dans HDFS
Développement d'une API Flask capable de requêter solr et retourner, selon des critères de recherche, les documents concernés
Adaptation d'un algorithme de data science Word2Vec pour contextualiser un critère de recherche et générer une liste de
synonymes
Migrer les script vers Spark 2.3
Optimiser les script pyspark en réduisant le temps de traitement
Contexte
Dans le cadre de mon stage de n d'études, j'ai participé à la mise en place d'une plateforme de suivi et d'automatisation de deux
process en Big data (data cleaning et data processing) à l'aide du framework Spark au sein de l'environnement Hadoop.
J’ai ingéré par la suite les données résultantes dans SAP Hana an de calculer les KPI nécessaires pour la phase de restitution sur SAP
Analytics Cloud.
Missions
Automatisation dans Hadoop du nettoyage et du traitement personnalisé des données provenant de plusieurs sources et plusieurs
projets à l’aide des scripts Python
Automatisation de l’exécution des scripts à l’aide de l’outil Jenkins
Modélisation des données et création des vues SAP Hana pour préparer l’étape de restitution
Création de solutions de restitution sur l’outil SAP Analytics Cloud pour assurer le suivi aux utilisateurs des diérents projets
impactés par l’automatisation
Intégration dans une équipe projet en méthodologie Agile (Scrum)
Travail en collaboration avec des équipes internationales au quotidien
Stage en Anglais
Contexte
Au sein de l’équipe BI FICG (Finlake), j’ai participé à la migration de la base de données de l’outil de nancement Loan IQ de Natixis
vers le Big Data. J’ai contribué à la réalisation d’une modélisation Big Data à partir de l’existant ainsi que le remplacement des anciens
rapports en utilisant Tableau Software.
Missions
Etude de l’existant et dégagement du modèle relationnel
Modélisation des données par la dénormalisation an de répondre à un besoin de migration vers le Big Data
Ingestion des données dans Hive
Indexation et restitution des données à l’aide d’Indexima et Tableau Software
Contexte
Dans le cadre d’un CDD au sein d’une entreprise qui opère dans le secteur agricole, j’ai développé le site web de l’entreprise ainsi
qu’une application java pour la gestion des employés.
Missions
Développement du site ociel de l’entreprise
Développement d’une application Desktop pour la gestion des employées
Contexte
Développement d’une application Android pour le jeu de Fantasy Football tunisien Coaching Foot
Missions
Etude du projet (cahier des charges, conception détaillée)
Réalisation du Mock-up (story-board)
Intégration PSD
Développement des fonctionnalités (en utilisant les web service et les API Facebook, Google plus)
Tests unitaires et fonctionnels