Surpaiement des prestations de dossiers maladies (Prévoyance Collective)
- Etude des déperditions en collaboration avec le cabinet McKinsey : analyse des causes racines et chiffrage
- Développement d’un outil de scoring (PySpark et Python) pour détecter automatiquement les déperditions
- Création de pipelines de traitement de données de plusieurs sources (base Oracle, Hadoop et Datamart) dans un
environnement Cloudera
- Analyse de la qualité des données (couverture et données manquantes) pour l’intégration de nouvelles sources de données dans un système d’aide à la décision (application métier)
Projet de détection de fraude interne et externe
- Framework de détection de fraude (interface visuel Linkurious) pour investigation sur la fraude
- Création de pipeline de données avec des jobs Dataiku (PySpark et Python) à partir de tables Hive
- Ingestion des données d’Hadoop vers un serveur Neo4j avec des scripts Unix (ordonnanceur Dollar Universe et stream Kafka)
Amazon, Alexa Data Services
• Optimisation des modèles de reconnaissance de la parole et de part-of-speech tagging à partir de plusieurs algorithmes
: SGD, Adam, Adagrad, Adadelta et RMSProp
• Développement d’un pipeline de données ETL et de déploiement de scripts dans AWS grâce à Pyspark, Kafka, EC2,
Amazon S3, AWS Lambda et Jenkins
• Assistance dans la transcription et annotation des données audio d’utilisateurs francophones
Fordaq, département IT
• Business Transformation : Benchmark de solution technologiques (Business Intelligence/Analytics) pour monitorer et évaluer les ventes de souscription d’abonnement Fordaq
• Préparation de dataset à partir de base de données MSSQL (connexion de la base de données grâce à sqlite3 à un environnement de programmation Python)
• Analyse de sentiment des messages du chat Fordaq avec des modèles SVMs, Random Forests, et Naive Bayes
Legrand, département production, Amélioration de process
• Construction d’un modèle statistique du fonctionnement d’un entrepôt de stockage pour augmenter la productivité et réduire les pertes de produits lié à l’obsolescence
• Rédaction d’un rapport d’analyse, et présentation des résultats (à l’aide du logiciel TABLEAU). Le rapport peut être très bien lu par des partenaires interne et externe et à pour but de donner des indications claires pour comment améliorer la gestion des produits
Etablissement et suivi de la gestion de montée de versions, de différents environnements (Integration, MCO, Formation , Préproduction, Production) au moyen de chronogramme
Coordination entre différentes équipes (production, métier) pour des interventions ponctuelles
Suivi des accès des habilitations des utilisateurs (interne et clientèle)
Création de scripts pour l’automatisation de l’intégration des dsx (pour la V8 en Unix et pour la V11en Linux)
Mise en place des composants dans les environnements d’intégration et recette
Demande de modification de base si nécessaire
Lancement des tests
Mise en place en production après validation des études.
Suivi de la mise en exploitation via CTRLM
En relation avec les études et la production, prise en compte des besoins de livraisons des applications commerciales (OAD, BCP CRM) et risques (BSR, DWO et BSRsa) pour l’espace d’intégration
Vérification de la conformité entre les documents d’exploitation, de livraison pour l’intégration et le besoin exprimé
Contrôle et installation des composants pour la recette
Déroulement de la stratégie de recette
Préparation des livrables pour la production
Création du document de livraison vers la production (ordre chronologique d’installation, détail de l’installation, cas particuliers…).
Création du plan de test technique
Suivi de la mise en exploitation
Evolution et maintenance sur différents projets (CDS – ETC – EMB…) avec évolution de la documentation suivant la norme CMMI
Suivi d’exploitation des chaînes existantes de l’équipe DWH
Reprise et mise en place du projet OVI comprenant réception de fichier venant d'Espagne, mise au point avec les équipes, enrichissement des données et insertion en base pour les utilisateurs avec en complément le projet FER (Flux Externe de Régulation : fichier de code de point de vente)
Développement du projet CAE ( restitution du CApital Economique)
Initialisation et enrichissement d’un référentiel pour l’application CCA (Cube des Comptes Actuariat)
Suivi de la mise en intégration, recette
Création de dossier technique
Analyse technique du datamart TA (Transfert Agent)
Migration de l’application de Datastage V6 vers DatastageV8
Mise en place script shell pour le lancement des jobs (nuit, événementiels, technique)
Mise en place environnent Qual, Prod(Coté datastage, Unix)
Réalisation de schéma, dossier d’exploitation, dossier de monitoring
Suivi qualification et production
Analyse fonctionnelle des besoins des utilisateurs pour l’élaboration de rapports décisionnels sur la gestion de l’occupation de chaque personne s’occupant du B2B.
Modélisation des tables de réception ODS, dataware et datamart
Spécification technique détaillée
Développement (datastage) des interfaces entre SIEBEL (pourvoyeur de données), l’ODS, le dataware et le datamart, création de scripts Unix pour effectuer les liens.
Suivi de la mise en recette
Réalisation de schéma et dossier d’exploitation