CV AMAZON AWS : Nos meilleurs indépendants dispos

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils AMAZON AWS connectés

CV Directeur du Pôle Data Management
Stéphan

Directeur du Pôle Data Management

  • PARIS
SEMARCHY SQL AGILE SQL SERVER SCRUM PMO .NET ORACLE POSTGRESQL JIRA
Disponible
CV Chef de projet IT / Service Delivery Manager
Alain

Chef de projet IT / Service Delivery Manager

  • PARIS
ITIL ASSET MANAGEMENT AMAZON AWS SERVICENOW MS PROJECT SALESFORCE AGILE Cloud AWS WAN Microsoft Azure Security Center
Disponible
CV Chef de Projet
Malick

Chef de Projet

  • VILLEPINTE
AGILE MOA JIRA CRM GED BI PMO MS OFFICE SPLUNK SAP
Disponible
Je trouve un CV AMAZON AWS
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu d'expériences de Sawssen,
freelance AMAZON AWS habitant le Val-de-Marne (94)

  • E-fraud realtime detection - Société générale
    Jan 2018 - aujourd'hui

    Spark streaming pour le parsing des fichiers gzip et stockage data lake
    ● Batch processing des fichiers csv,avro .. enrichissement et stockage data lake
    ● Développement des services rest avec spring boot
    ● Interface graphique pour la restitution
    ● Continous delivery (git, jenkins, ansible .. )
    Java8, Solr 5.2.1, HDP2.6.2 (Spark 2, HBase 1.1.2),Apache
    Tika,Tesseract(OCR) ,Sqoop2,
    Oozie, Spring Boot
    HDP-2.6.2 ( Spark, Kafka,
    HBase, Hadoop),Avro 1.7.7,
    Parquet 1.8.1, Akka
    2.5.4,Apache Kamel 2.19, Kryo
    2.4, Java 8, Scala 2,
    Elasticsearch 5.4.3 , Kibana
    Gitlab, Jenkins, Nexus, Maven,
    Grafana, Graphite, JMXTrans

  • Jan 2016 - aujourd'hui

    Spring Boot, Spring
    security, React Js, git, ansible,
    Jenkins,Elasticsearch, machine
    learning

    Java8 , HDP2.6.2 (Spark 2, kafka, hive,oozie, avro, parquet)
  • Consultante Big Data

    Finaxys, Paris France - SSII
    Jan 2016 - aujourd'hui

  • Ingénieur Etude Recherche & Développement

    Mondeca , Paris France - Client Final -1 an et 8 mois
    Jan 2015 - Jan 2016

    Conception et développement d’un outil de visualisation pour le client Materne et SEB
    ● Extraction et traitement des données de différentes sources (Facebook , Forum et base de données )
    ● Indexation des données avec l’API Java d’Elasticsearch.
    ● Mise en place d’un nouveau serveur externe et automatisation de la chaîne (Extraction, Annotation,
    Indexation) avec des scripts linux, crontab, incrontab , procédure de sauvegarde.
    ● Dashbords Kibana et Zoomdata.

    Conception et développement des représentations visuelles de connaissances sémantiques
     Graphe dynamique et interactif pour naviguer au sein d’un réseau sémantique.
    Installation et configuration des serveurs linux
    ● Installation des serveurs pour des besoins internes ou externes en mode SAAS.
    ● Documentation technique interne dans le wiki.
    ● Scripts batch de monitoring, sauvegarde et automatisation.

    Java 7, API Facebook, Elasticsearch, Kibana , Spring Boot, Syslog, Maven, Svn, Jenkins , Linux, Angular Js 1 , Twitter bootsrap, CSS3, JQuery , D3js , HTML5,
  • Amazon AWS Mission – Financing Data Lake : Data DiscoverySociété générale - 2 mois
    aujourd'hui

    Intégration des flux de différentes sources de données (fichiers, base de données, mails …) dans le dataLake en mode batch.
    ● Spark processing pour le parsing des documents avec Tika, l’indexation Solr et stockage HBase.
    ● Exposition des services Rest
    ● Interface graphique pour la recherche Solr.

    Projet à forfait - Refonte du système du contrôle du marché financier – Autorité du marché financier – 1 an
    ● Mise en place du processus du continuous delivery : Installation Gitlab, Configuration Jenkins et Nexus.
    ● Mise en place du processus du monitoring pour kafka : Grafana, Graphite, JMXTrans
    ● Etude, Conception et développement de différentes solutions pour l’extraction et traitement de différents flux financiers : ( euronext, firds, trem, rdt, fsma .. )
    Acquisition des fichiers xml en temps réel et application de différents contrôles qualités (contrôle nommage, vérification XSD, contrôle Submiting Entity, contrôle séquence, contrôle unicité..)
    Intégration des flux en format parquet dans le datalake.
    Spark processing de différents flux financiers (règles du contrôle qualité des transactions, routage des transactions, enrichissement du référentiel métier …)
     Réalisation d’un POC sur amazon AWS ( EC2, EMR, Redshift ..)

Voir le profil complet de ce freelance

Profils proches des profils AMAZON AWS potentiellement sollicités

CV AWS X-RAY