CV PHOENIX : Trouvez votre consultant freelance

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils PHOENIX connectés

CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
CV Chef de projet expert SI assurances
Fiona

Chef de projet expert SI assurances

  • Rosny sous bois
ACTIV INFINITE GED GRAPHTALK AIA SAGE X3
CV Consultant APACHE HADOOP
Jaleed

Consultant APACHE HADOOP

  • NOGENT-SUR-OISE
BASH APACHE HADOOP Cloudera ANSIBLE REDHAT HDFS APACHE HBASE GIT HASHICORP TERRAFORM JAVA
Disponible
CV Expert en Centre de Contacts
Eric

Expert en Centre de Contacts

  • DUCOS
GENESYS ASTERISK SVI VOIP UNIX LINUX JAVA PYTHON POSTGRESQL ANSIBLE
CV Architecte IT
Belkacem

Architecte IT

  • CABASSE
LINUX MAINFRAME AZURE CISCO VMWARE WEBSPHERE AGILE SQL WEBLOGIC DEVOPS
Disponible
CV Développeur Architecte C++ JAVA
Laurent

Développeur Architecte C++ JAVA

  • SAINT-AIGNAN
C++ JAVA WEBSPHERE J2EE TOMCAT DEVOPS JBOSS WEBSERVICES SPRING
CV Chef de projet AS400
Serge

Chef de projet AS400

  • CHEVILLY-LARUE
AS400 WINDEV WEBDEV
Disponible
CV Chef de projet technico-fonctionnel
Vincent

Chef de projet technico-fonctionnel

  • LILLE
JIRA EXCEL AGILE SQL XML MDM TALEND MDM PLM HP ALM HP QUALITY CENTER
Disponible
CV Business Analyst
Fatine

Business Analyst

  • VERSAILLES
JIRA EXCEL BUSINESS OBJECTS SWIFT
Disponible
CV Scrum Master
Pascal

Scrum Master

  • Vélizy-Villacoublay
JMETER JAVA PERL SHELL UNIX SELENIUM REST LINUX JAVASCRIPT DOCKER Kubernetes
Disponible
Je trouve un CV PHOENIX
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Chiheb,
freelance PHOENIX habitant les Yvelines (78)

  • DATA SCIENTIST

    ADSERVIO
    Jan 2018 - Jan 2018

     Création d’un système de recommandation des consultants à des missions
     Développement d’un système proactif de proposition de formation
     Développement d’un modèle de proposition d’un plan de recrutement.
     Migration des données de SQL à la base neo4j (orienté document)
    avec des interfaces de visualisation en temps réel.

     Environnements: Python3.6, plotly Dash, Flask, pandas, nltk, tf-idf, text-mining, LSA, SVD.
  • JUNIOR DATA SCIENTIST

    RATP
    Jan 2018 - aujourd'hui

     Preuves de concept (POC)
     Détermination des itinéraires principaux des bus depuis les données de géolocalisation.
     Identification des itinéraires d’aller/retour.
     Identification des itinéraires déviés.
     Détermination des chemins principaux des bus.
     Lissage spatio-temporel des itinéraires en cas des captures manquantes.

  • JUNIOR DATA SCIENTIST

    KAGGLE
    Jan 2017 - Jan 2018

     Prédiction des prix de ventes des produits sur Mercari (entreprise japonaise) en se basant sur la description du produit.
     Analyse sentimental des descriptions des produits et études des corrélations avec la cible.

     Environnements : Python3.6, pandas, nltk, text-mining, Régression.
  • JUNIOR DATA SCIENTIST

    BARAC
    Jan 2017 - Jan 2017

     Création d’un modèle de prédiction, RandomForest, des cyber-attaques en se basant sur les métadonnées de l’entête IP enregistrés sur HBase via Apache Phoenix avec une précision de 99.97%.
     Détection des anomalies de flux HTTP et HTTPS.
     Création d’un modèle de détection des masquarades sur le système avec les chaines de markov.
     Déploiement des modèles sur Horton Works (Microsoft Azure) pour des
    prédictions en temps réel dans l’environnement : Kafka, Storm, Rsyslog, Phoenix, HBase
     Analyse Comportementale des hackers.
     Test et maintenance du modèle sur l’architecture HortonWorks

     Environnements : Python2.7, pandas, numpy, sklearn, Random Forest, HortonWorks, Redis, HBase, Apache Kafka, Apache Phoenix, Apache Storm, Rsyslog, Hidden Markov Chain, Apache Ambari
  • JUNIOR DATA ANALYST

    TARGA CONSULT
    Jan 2016 - Jan 2016

     Conception du Data Warehouse
     Création d’un ETL à partir des données existantes vers PostgreSQL avec Talend Data Integration.
     Création d’un Cube d’analyse sur icCube Server
     Réalisation du Tableau de bord sur Tableau Software
     Prédiction des chiffres futur de l’Entreprise

     Environnements : R , PostgreSQL, Tableau Software, Talend DI, icCube Server
  • DATA SCIENTIST & BIGDATA DEV.

    SMART TECHNOLOGY
    aujourd'hui

     Développement d’un outil de Web Scrapping des profils de consultants
     Chargement des données dans une base de données SQL
     Environnements : Python3.6, BeautifulSoup, Selenium, MySQL
     Développement d’un Workflow d’extraction des tweets en temps réel
     Analyse sentimental des tweets
     Développement d’une Application de Dashboarding R Shiny
     Conteneurisation de l’application avec Docker
     Environnements : R, shiny, Python3.6, MongoDB, Docker, DockerHub
     Configuration et développement d’un Workflow de Streaming Environnements : Apache Kafka, Docker, DockerHub
     Prototypage d’un système de recommandation des achats

     Environnements : Python3.6, apriori, redis
Voir le profil complet de ce freelance