Sawssen - Data engineer Azure
Ref : 220913Y001-
Domicile
77185 LOGNES
-
Profil
Ingénieur de développement, Data Analyst (30 ans)
-
StatutFreelance
-
Tarif Journalier MoyenVoir le tarif
-
Fonction Azure Data Engineer
AXA Direct AssuranceJan 2021 - aujourd'huiProjet(s)
Environnement Spark Scala,Azure Data Factory,Azure Blob Storage,Azure DevOps, Release, Pipeline, Artifact, Board, Repos,Azure Databricks , Databricks Delta
L’objectif de ce projet est de migrer d'un data lake on-premise vers le cloud Azure, et reconstruire un datawarehouse: data ingestion, data transformation et business views.
Mission(s) et réalisations
Migration d'un environnement BI(sql server, oracle,...)vers le cloud,
Création des pipelines avec azure data factory pour alimenter les delta tables,
Debugging avec azure databricks,
Développer la correspondance des requêtes SQL en code spark scala,
Migration des vues,
Développer des tests unitaires avec scala test,
Participer dans la partie CI/CD en utilisant azure Devops. -
Fonction Ingénieur Big Data
OrangeJan 2020 - Jan 2021Projet(s)
Environnement Cloudera 6.2.0, Spark 2.4.0, Scala 2.11.8, Python 2.7.0, Nifi 1.9.0, Hive 2.11.8, Impala 3.2.0, Oozie 5.1.0, Hadoop. Méthodologie : Agile Scrum.
Projet de migration de la plateforme d’un environnement BI (Oracle Talend) vers environnement Big Data (Hadoop Cloudera).
Mission(s) et réalisations
Recueil et analyse du besoin du client,
Etude et conception des solutions techniques,
Participation à la conception de l’architecture de l’application,
Développement des différents modules du projet,
Migration des tables Oracle (bscs) (partie ADSL) vers Hadoop Cloudera,
Migration des jobs d’agrégation dans Hive,
Chargement des données depuis différentes sources en réalisant des traitements dans Hive,
Migration des jobs Talend de transfert des fichiers avec des jobs NIFI,
Création des vues au niveau de Hive et Impala,
Optimisation des requêtes SQL, Hive, Impala et Spark-Shell en vérifiant la compatibilité,
Développement de workflows Oozie et établissement de la fréquence d’exécution,
Accompagnement du client sur la phase recette (tests). -
Fonction Ingénieur Big Data
KEYRUSJan 2018 - Jan 2020Projet(s)
Environnement Oozie, Hbase, Hive, Hadoop, Ambari, Apache Phoenix, Sqoop, Spark, Java 8, Python, Springboot, Hortonworks, Teradata, Postgres, Scala, Talend ESB, Talend Cloud, Azure, SonarQube, JUnit5. Méthodologie: Agile Scrum.
Participation à la mise en place d’un Datalake dans une plateforme Hortonworks.
Mission(s) et réalisations
Recueil et analyse du besoin métier,
Participation à la conception de l’architecture de l’application,
Rédaction du cahier des charges,
Rédaction des contrats d’interface,
Développement de la solution,
Collecte et centralisation des données brutes depuis différentes sources de données : Oracle, Teradata et Hive,
Calcul et consolidation des KPIs demandés dans des Datamarts par secteurs d’activité (DOB, DIE),
Développement des jobs de collecte et intégration des sources dans le Datalake à travers Sqoop, Spark, Hive et HDFS,
Développement des jobs d’agrégation et calcul d’indicateurs pour l’alimentation des datamarts via Spark, Hive et HDFS,
Planification et automatisation des workflows avec l’outil Oozie,
Monitoring des ressources du cluster avec Ambari,
Contribution à la réalisation de la documentation : spécifications fonctionnelles détaillées, dossier d’architecture, dossier de recette,
Accompagnement du client durant la phase de recette (tests),
Analyse et traitement des retours client à propos du projet (change requests),
Création d’un Middleware (webservices) entre Talentsoft et Textkernel pour gérer le transfert de données entre les deux sociétés,
Publication et déploiement des jobs Talend ESB sur Talend cloud,
Configuration du runtime et du moteur à distance sur Talend Cloud,
Réalisation des tests unitaires et d’intégration avec JUnit5,
Revue de code avec SonarQube. -
Fonction Data Engineer
P3 GROUP ToulouseJan 2017 - Jan 2017Projet(s)
Environnement Spark streaming, Kafka, Python, Elasticsearch, Kibana, RNN, Logistic Regression, Keras, Spacy, BeautifulSoup.
L’objectif de ce projet est d’analyser les retours et feedback des clients sur les réseaux sociaux, plus spécifiquement twitter dans le but d’améliorer l’image et la notoriété de la compagnie Airbus auprès de ses clients.
Mission(s) et réalisations
Recueil et analyse du besoin du client,
Participation à la conception de l’architecture de l’application et choix des technologies,
Rédaction d’un cahier de charge technique,
Développement de la solution avec Kafka et Python,
Exploration des données et scrapping (extraction de données) avec l’outil BeautifulSoup,
Collecte des données en streaming (en temps réel) avec API Twitter,
Gestion et filtrage des flux des données avec Kafka,
Analyse des données collectées en temps réel avec Spark streaming en utilisant des algorithmes de machine learning via la bibliothèque Keras et Spacy,
Sauvegarder ces données dans Elasticsearch,
Visualisation des données sauvegardées avec Kibana.
Formation Initiale
Certifications
2017 : Diplôme d’ingénieur en Informatique - Ecole nationale des Sciences de l’informatique.
2021 : Certification Azure Data Fundamentals DP 900.
2021 : Certification Azure Fundamentals AZ-900.
2021 : Certification Dataiku Core Designer et Advanced Designer.
Compétences Techniques
Programmation : Java, Scala, Spark, Python.
Frameworks: Spring boot, AngularJS, Flask, Exalead.
Bases de données : ElasticSearch, Oracle Database, Neo4j, MySQL, Mongodb, Hive, Impala.
Outils de développement : Pycharm, Eclipse, Visual Studio Code, Git, Jupyter, Kibana, Talend Esb studio.
Systèmes d’exploitation : Windows 10, Windows 7, Ubuntu.
Big Data : Cloudera, Hortonworks, Hadoop.
Méthodologie : Agile Scrum.
Autres : Architecture Big Data, BI, Apprentissage machine, Cloud Computing.
Langue
Anglais : Courant.
Certifications
2017 : Diplôme d’ingénieur en Informatique - Ecole nationale des Sciences de l’informatique.
2021 : Certification Azure Data Fundamentals DP 900.
2021 : Certification Azure Fundamentals AZ-900.
2021 : Certification Dataiku Core Designer et Advanced Designer.
Compétences Techniques
Programmation : Java, Scala, Spark, Python.
Frameworks: Spring boot, AngularJS, Flask, Exalead.
Bases de données : ElasticSearch, Oracle Database, Neo4j, MySQL, Mongodb, Hive, Impala.
Outils de développement : Pycharm, Eclipse, Visual Studio Code, Git, Jupyter, Kibana, Talend Esb studio.
Systèmes d’exploitation : Windows 10, Windows 7, Ubuntu.
Big Data : Cloudera, Hortonworks, Hadoop.
Méthodologie : Agile Scrum.
Autres : Architecture Big Data, BI, Apprentissage machine, Cloud Computing.
Langue
Anglais : Courant.