Missions AMAZON AWS : Dénichez votre futur emploi freelance

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions AMAZON AWS à pourvoir

Architecte technique système AWS

AMAZON AWS AZURE Cloud AWS
14/04/2025
62 - Lestrem
3 mois
Voir la mission

Data engineer

SQL PYTHON AMAZON AWS APACHE SPARK
ASAP
91 - MASSY
3 mois
Voir la mission
Je trouve ma mission AMAZON AWS

Les intervenants AMAZON AWS ont aussi candidaté à :

Architecte

AZURE Kubernetes Cloud AWS Google Cloud Platform 5G
ASAP
92 - MONTROUGE
12 mois
Voir la mission

Architecte Cloud – Solutions de Recherche Médicale

AZURE Cloud AWS Confidentialité des Données Droits et Protection des Données
ASAP
69 - LYON
12 mois
Voir la mission
Je trouve ma mission AMAZON AWS
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des missions de Sawssen,
freelance AMAZON AWS résidant dans le Val-de-Marne (94)

  • E-fraud realtime detection - Société générale
    Jan 2018 - aujourd'hui

    Spark streaming pour le parsing des fichiers gzip et stockage data lake
    ● Batch processing des fichiers csv,avro .. enrichissement et stockage data lake
    ● Développement des services rest avec spring boot
    ● Interface graphique pour la restitution
    ● Continous delivery (git, jenkins, ansible .. )
    Java8, Solr 5.2.1, HDP2.6.2 (Spark 2, HBase 1.1.2),Apache
    Tika,Tesseract(OCR) ,Sqoop2,
    Oozie, Spring Boot
    HDP-2.6.2 ( Spark, Kafka,
    HBase, Hadoop),Avro 1.7.7,
    Parquet 1.8.1, Akka
    2.5.4,Apache Kamel 2.19, Kryo
    2.4, Java 8, Scala 2,
    Elasticsearch 5.4.3 , Kibana
    Gitlab, Jenkins, Nexus, Maven,
    Grafana, Graphite, JMXTrans

  • Jan 2016 - aujourd'hui

    Spring Boot, Spring
    security, React Js, git, ansible,
    Jenkins,Elasticsearch, machine
    learning

    Java8 , HDP2.6.2 (Spark 2, kafka, hive,oozie, avro, parquet)
  • Consultante Big Data

    Finaxys, Paris France - SSII
    Jan 2016 - aujourd'hui

  • Ingénieur Etude Recherche & Développement

    Mondeca , Paris France - Client Final -1 an et 8 mois
    Jan 2015 - Jan 2016

    Conception et développement d’un outil de visualisation pour le client Materne et SEB
    ● Extraction et traitement des données de différentes sources (Facebook , Forum et base de données )
    ● Indexation des données avec l’API Java d’Elasticsearch.
    ● Mise en place d’un nouveau serveur externe et automatisation de la chaîne (Extraction, Annotation,
    Indexation) avec des scripts linux, crontab, incrontab , procédure de sauvegarde.
    ● Dashbords Kibana et Zoomdata.

    Conception et développement des représentations visuelles de connaissances sémantiques
     Graphe dynamique et interactif pour naviguer au sein d’un réseau sémantique.
    Installation et configuration des serveurs linux
    ● Installation des serveurs pour des besoins internes ou externes en mode SAAS.
    ● Documentation technique interne dans le wiki.
    ● Scripts batch de monitoring, sauvegarde et automatisation.

    Java 7, API Facebook, Elasticsearch, Kibana , Spring Boot, Syslog, Maven, Svn, Jenkins , Linux, Angular Js 1 , Twitter bootsrap, CSS3, JQuery , D3js , HTML5,
  • Amazon AWS Mission – Financing Data Lake : Data DiscoverySociété générale - 2 mois
    aujourd'hui

    Intégration des flux de différentes sources de données (fichiers, base de données, mails …) dans le dataLake en mode batch.
    ● Spark processing pour le parsing des documents avec Tika, l’indexation Solr et stockage HBase.
    ● Exposition des services Rest
    ● Interface graphique pour la recherche Solr.

    Projet à forfait - Refonte du système du contrôle du marché financier – Autorité du marché financier – 1 an
    ● Mise en place du processus du continuous delivery : Installation Gitlab, Configuration Jenkins et Nexus.
    ● Mise en place du processus du monitoring pour kafka : Grafana, Graphite, JMXTrans
    ● Etude, Conception et développement de différentes solutions pour l’extraction et traitement de différents flux financiers : ( euronext, firds, trem, rdt, fsma .. )
    Acquisition des fichiers xml en temps réel et application de différents contrôles qualités (contrôle nommage, vérification XSD, contrôle Submiting Entity, contrôle séquence, contrôle unicité..)
    Intégration des flux en format parquet dans le datalake.
    Spark processing de différents flux financiers (règles du contrôle qualité des transactions, routage des transactions, enrichissement du référentiel métier …)
     Réalisation d’un POC sur amazon AWS ( EC2, EMR, Redshift ..)

Voir le profil complet de ce freelance

Compétences similaires à AMAZON AWS occasionnellement recherchées

Missions AWS X-RAY