CV PHOENIX : Sélectionnez facilement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils PHOENIX connectés

CV Chef de projet AGILE
Jacques Patrice

Chef de projet AGILE

  • MARSEILLE
PMO AGILE
CV Tech Lead Java/Angular
Gregory

Tech Lead Java/Angular

  • PARIS
JAVA
Disponible
CV Chef de Projet Innovation Blockchain & IA
Christophe

Chef de Projet Innovation Blockchain & IA

  • THIAIS
BLOCKCHAIN PROJECT MANAGEMENT OFFICE TOGAF Generative Pre-trained Transformer ITIL Deep Learning
CV Data Engineer / Data Analyst
Salima

Data Engineer / Data Analyst

  • STAINS
SQL DATAVIZ DATA Google Cloud Platform MICROSOFT BI AZURE GOOGLE ANALYTICS Databricks
CV Développeur web fullstack
Emmanuel

Développeur web fullstack

  • BORDEAUX
AGILE SCRUM JIRA CONFLUENCE PHP MAGENTO JAVASCRIPT MYSQL
Disponible
CV Testeur logiciels
Safia

Testeur logiciels

  • SAINT-MAUR-DES-FOSSÉS
SQUASH JIRA AGILE ISTQB SQL HP ALM
CV Développeur C++/C#/Unity/3D
Jean-Philippe

Développeur C++/C#/Unity/3D

  • GUILLESTRE
C++ C# UNITY 3D UNREAL ENGINE
Disponible
CV Développeur FullStack
Emric

Développeur FullStack

  • LA ROCHELLE
JAVA JAVASCRIPT DOCKER PHP POSTGRES MONGODB FLUTTER PHOENIX React Native REACT.JS
CV Ingénieur DevOps et Middleware
Dario

Ingénieur DevOps et Middleware

  • PARIS
WEBLOGIC TOMCAT JBOSS APACHE ANSIBLE ELASTICSEARCH LINUX SHELL UNIX DEVOPS POWERSHELL
Disponible
CV Études électrotechniques - Machines et process
Frédéric

Études électrotechniques - Machines et process

  • PONT-SAINT-MARTIN
SEE Electrical Expert MICROSOFT VISIO
Disponible
Je trouve un CV PHOENIX
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des missions de Chiheb,
freelance PHOENIX résidant dans les Yvelines (78)

  • DATA SCIENTIST

    ADSERVIO
    Jan 2018 - Jan 2018

     Création d’un système de recommandation des consultants à des missions
     Développement d’un système proactif de proposition de formation
     Développement d’un modèle de proposition d’un plan de recrutement.
     Migration des données de SQL à la base neo4j (orienté document)
    avec des interfaces de visualisation en temps réel.

     Environnements: Python3.6, plotly Dash, Flask, pandas, nltk, tf-idf, text-mining, LSA, SVD.
  • JUNIOR DATA SCIENTIST

    RATP
    Jan 2018 - aujourd'hui

     Preuves de concept (POC)
     Détermination des itinéraires principaux des bus depuis les données de géolocalisation.
     Identification des itinéraires d’aller/retour.
     Identification des itinéraires déviés.
     Détermination des chemins principaux des bus.
     Lissage spatio-temporel des itinéraires en cas des captures manquantes.

  • JUNIOR DATA SCIENTIST

    KAGGLE
    Jan 2017 - Jan 2018

     Prédiction des prix de ventes des produits sur Mercari (entreprise japonaise) en se basant sur la description du produit.
     Analyse sentimental des descriptions des produits et études des corrélations avec la cible.

     Environnements : Python3.6, pandas, nltk, text-mining, Régression.
  • JUNIOR DATA SCIENTIST

    BARAC
    Jan 2017 - Jan 2017

     Création d’un modèle de prédiction, RandomForest, des cyber-attaques en se basant sur les métadonnées de l’entête IP enregistrés sur HBase via Apache Phoenix avec une précision de 99.97%.
     Détection des anomalies de flux HTTP et HTTPS.
     Création d’un modèle de détection des masquarades sur le système avec les chaines de markov.
     Déploiement des modèles sur Horton Works (Microsoft Azure) pour des
    prédictions en temps réel dans l’environnement : Kafka, Storm, Rsyslog, Phoenix, HBase
     Analyse Comportementale des hackers.
     Test et maintenance du modèle sur l’architecture HortonWorks

     Environnements : Python2.7, pandas, numpy, sklearn, Random Forest, HortonWorks, Redis, HBase, Apache Kafka, Apache Phoenix, Apache Storm, Rsyslog, Hidden Markov Chain, Apache Ambari
  • JUNIOR DATA ANALYST

    TARGA CONSULT
    Jan 2016 - Jan 2016

     Conception du Data Warehouse
     Création d’un ETL à partir des données existantes vers PostgreSQL avec Talend Data Integration.
     Création d’un Cube d’analyse sur icCube Server
     Réalisation du Tableau de bord sur Tableau Software
     Prédiction des chiffres futur de l’Entreprise

     Environnements : R , PostgreSQL, Tableau Software, Talend DI, icCube Server
  • DATA SCIENTIST & BIGDATA DEV.

    SMART TECHNOLOGY
    aujourd'hui

     Développement d’un outil de Web Scrapping des profils de consultants
     Chargement des données dans une base de données SQL
     Environnements : Python3.6, BeautifulSoup, Selenium, MySQL
     Développement d’un Workflow d’extraction des tweets en temps réel
     Analyse sentimental des tweets
     Développement d’une Application de Dashboarding R Shiny
     Conteneurisation de l’application avec Docker
     Environnements : R, shiny, Python3.6, MongoDB, Docker, DockerHub
     Configuration et développement d’un Workflow de Streaming Environnements : Apache Kafka, Docker, DockerHub
     Prototypage d’un système de recommandation des achats

     Environnements : Python3.6, apriori, redis
Voir le profil complet de ce freelance