• Comprendre le contexte fonctionnel et métier du cas d’usage
• Identifier, analyser et modéliser les données
• Préparer les données (data engineer), statistiques descriptives,
machine learning.
• Documenter les choix de méthode et l’implémentation du modèle de
machine learning.
• Assurer le transfert de connaissances vers les équipes de
développement des use cases Big Data.
• Développement de Dashboards,rapports et alertes.
• Déploiement de l’infrastructure de collecte des logs.
• Machine learning : développement d’algorithme pour la classification
des incidents.
• Conduite des workshops fonctionnels et techniques.
• Accompganement à l’exploitation des solutions.
Contexte projet: Machine learning : Développement d’algorithme pour
la classification des incidents. - Développement de rapports,alertes et
Dashboard. - Déploiement de l’infrastructure de collecte des logs -
L’industrialisation et évolution des services Splunk vers un service
serious
Sujet: — Compréhension et reformulation
des besoins métiers pour proposition
d’analyses — Manipulation et préparation
des données pour la mise en oeuvre des
analyses statistiques avec création
d’indicateurs en langage SPL. — Réalisation
de Rapports et Tableaux de Bord. —
Recommandations de nouveaux KPI.
Mots clés: Splunk,Dashboard,
Rapport,statistques,Data,SPL,KPI
Sujet: Etude et mise en place de la méthode
du Gradient Boosting dans un cadre de
régression supervisé.— Prédire le type de
couverture forestière du parc national
Roosevelt en USA. — Comparer la méthode
du Gradient Boosting (gbm) avec les forets
aléatoires, les SVM et Deep Learning.
Mots clés: Machine learning,SVM, réseau de
neurones, Python, R, forêts aléatoires,
Régression Supervisé , Statistiques