Traitements des articles/catalogues automobile dans le cadre du projet Parts-IO.
• Développement des jobs de transcodification Spark/Python.
• Lecture et écriture des données sur Amazon S3.
• Filtrage et transformation des données.
• Ingestion des données dans MongoDB.
• Développement des tests unitaires et d’intégrations.
Développement de deux projets (Polaris & KPI RH) pour Talan France.
• Conception d’un modèle en constellation datamart (faits & dimensions).
• Développement des jobs Talend (ETL) pour alimenter les bases PostgreSQL (Staging, Datawarehouse et
Datamart).
• Développement des rapports Power BI.
• Surveillance des serveurs recette et prod pour une intervention en cas de problème
• Rédaction des documentations Techniques (Les mesures Power BI, les rapports, le modèle de donnée, les
jobs Talend etc.)
Traitement des transactions financières des marchés Carrefour pour un projet One cash.
• Routage des données reçues par voie SFTP vers le datalake Carrefour (HDFS).
• Parsing et normalization des données en utilisant Spark/Scala, le résultat des traitements est sous format
avro afin de créer des tables externes Hive.
• Jointure des données pour calculer les cantonnements des transactions carrefour (Spark/scala/Hive).
• Extraction des données sous format csv.
Développement d'une application Java/Spark pour le monitoring et le process des données de marché (trader, order,
commodities etc.).
• Ingestion, filtrage, et transformation de données de sources depuis le Datalake Société Générale dans la zone
MAST (nom du projet).
• Développement de jobs quotidiens en Spark-java pour l'enrichissement et le process des données depuis des
tables externes Hive (des fichiers parquets).
• Lancement de Jobs en utilisant les coordinateurs Oozie.
• Extraction des résultats dans des fichiers CSV et envoi des fichiers par voie SFTP.
• Tests Unitaires et d’intégration avec mise en place d’un « mini-Cluster » Hortonwroks dédié aux tests.
• Mise en place d'une chaine d'intégration continue en utilisant Jenkins, Git et maven et développement des
scripts python pour le déploiement du projet.
Ingestion, transformation et indexation de sources de données depuis le Data lake Renault pour une plateforme de
statistiques permettant l'étude du comportement des véhicules vendus.
• Développement de jobs quotidien en en Spark-Scala pour alimentation d’index ElasticSarch à partir de Hive.
• Lancement de Jobs en utilisant les coordinateurs Oozie.
• Transformation et filtrage des données sous Spark.
• Tests Unitaire et d’intégration avec mise en place d’un « mini-Cluster » Hortonwroks dédié aux tests.
Développement d'une application Java/Spark gérant le volet contrôle du mécanisme de capacité de production
électrique en France métropolitaine.
• Acquisition des données en utilisant Java/ SQL.
• Traitement des données par Spark.
• Stockage des résultats dans des tables Teradata intermédiaires.
• Publication des données vers RTE par voie FTP.
Formation Big data de 3 mois en Tunisie suivie des différentes missions décrites ci-dessus a Paris.
Environnement : Cloudera Hortenworks, Ambari, Spark, MapReduce, Hbase, Hive, Oozie, Elasticsearch, Logstash, Java, Python, Kibana, kafka, Shell, REST, Junit, Git.Développer et mettre en place un réseau de capteurs sans fils communiquant sous différents protocoles afin
d’améliorer l’efficacité énergétique des bâtiments tertiaires.