Résumé : gestion et mise en place du site e-Commerce pour les clients Lariviere : développement et intégration du site sur Salesforce Lighting, workflow email et sms (confirmation, information), mise à disposition des données (collecte et qualification des informations produits, mise en place d’un gestionnaire de médias)
⦁ Suivi avant-projet
⦁ Recueil et analyse des besoins
⦁ Rédaction, avec le métier, de l’ensemble des user stories sur Jira (caractéristiques du site, besoin en Analytics et SEO), construction et priorisation du backlog
⦁ Sourcing du logiciel de gestion des médias (Cloudinary) et du système d’authentification unique (Auth0)
⦁ Participation au choix de l’intégrateur Salesforce
⦁ Suivi de développement et d’intégration
⦁ Gestion TMA : gestion et suivi des tâches réalisées par le prestataire Salesforce (développement, RUN et maintenance)
⦁ Gestion de l’équipe IT interne (développeurs et architectes) : gestion et suivi des développements (mise à niveau de la base de données, listage et mise en place des flux entre la base de données et Salesforce, gestion des médias)
⦁ Mise à disposition et migration des données
⦁ Suivi de la collecte et de la qualification des informations fournisseurs à afficher sur l’e-Commerce (fiches produits, images, fiches techniques)
⦁ Mise en place d’un worklow de stockage des données
⦁ Mise en production
⦁ Mise en place des environnements de test en interne et mise à disposition de ces environnements au prestataire Salesforce
⦁ Écriture des scénarios de test, réalisation et revue des tests unitaires et fonctionnels avant mise en production
⦁ Dry run et migration dans un environnement de production
⦁ Gestion de projet
⦁ Suivis et alertes du périmètre, du planning, du budget et des ressources
⦁ Préparation et organisation du COPIL
⦁ Réunions hebdomadaires, daily sync up, préparation et mise en place de démonstrations, rétrospectives avec les équipes internes et avec le prestataire
Résumé : gestion de 3 projets en parallèle : migration d’une architecture SI entre deux environnements (Azure), audit pour la mise en place d’un référentiel unique de données de consommation, POC d’une nouvelle architecture et d’un nouvel algorithme d’IA.
⦁ Migration architecture
⦁ Audit de l’ensemble des flux, création d’une cartographie des flux et évaluation des types de connecteurs à utiliser (Kafka vs Webmethodes vs API)
⦁ Création d’une note d’architecture
⦁ Référentiel unique
⦁ Audit de l’ensemble des applications, analyse des cas d’usage, compatibilité entre les cas d’usage et les applications.
⦁ Sourcing des prestataires de bases de données de séries temporelles (Warp10, TimeScaleDB, etc.)
⦁ Reporting au COPIL
⦁ POC algorithme
⦁ Mise en place d’un environnement de test en local (VM, Linux, PHP, API) pour faire tourner un modèle Python. Comparaison avec les tests d’un prestataire externe (SAP – SAPHana)
⦁ Définition de l’architecture cible et création de la note d’architecture
Résumé : gestion de 4 projets en parallèle : migration des données (en local, sur des serveurs à décommissionner) vers l’infrastructure Big Data (Azure) et leur exploitation dans des environnements hors-production et production.
⦁ Gestion de projets
⦁ Définition des besoins avec les clients internes, définition et préparation de la backlog avec les équipes techniques et organisation des ressources nécessaires à la réalisation des projets (type et nombre d’environnement(s), mise à disposition de machines virtuelles, applications spécifiques (RapidMiner…), développements spécifiques (Pyhton), etc.)
⦁ Organisation et animation de réunions hebdomadaires pour les projets en cours avec les clients et rédaction des comptes rendus
⦁ Suivi quotidien (via Skype, tickets Jira, rencontres en personne) des actions à réaliser par les équipes techniques (devops, ops flux, data engineers et architectes), réparties sur une demi-douzaine de sites en France
⦁ Suivi des recettes techniques et fonctionnelles sur les environnements hors prod et prod
⦁ Mise en production et passation à l’équipe RUN
⦁ Gestion de crise et urgence : dans le cadre du décommissionnement des data centers historiques, on m’a confié la gestion de 3 des 5 projets à très fort impact, risque et urgence
⦁ Reporting
⦁ Suivi budgétaire et temps de travail des membres de l’équipe (via Timeperformance)
⦁ Reporting régulier et réunions hebdomadaires avec les directeurs de missions
Résumé : prospection, identification de nouveaux besoins et gestion de projets en mode POC ou dans un environnement hors-production.
⦁ Prospection et identification de nouveaux besoins
⦁ Prospection auprès des entités de Saint-Gobain (« clients internes ») : identification de leads, organisation de réunions téléphoniques et réunions en personne
⦁ Identification de nouveaux besoins et idéations avec les clients internes sur leurs projets big data et intelligence artificielle
⦁ Gestion de projets
⦁ Définition des besoins avec les clients internes, préparation avec les équipes techniques des spécifications et organisation des ressources nécessaires à la réalisation des projets
⦁ Organisation et animation de réunions hebdomadaires pour les projets en cours entre toutes les parties prenantes (métiers, IT, data engineers/scientists). Rédaction des comptes rendus
⦁ Planification et pilotage des data engineers, data scientists et data architects affectés au projet : consolidation des différents plannings, du suivi ainsi que la planification des POC, des mises en recette et des mises en production
⦁ Reporting
⦁ Elaboration des KPI pour les projets en cours
⦁ Elaboration du planning prévisionnel
⦁ Cas d’usages et domaines d’application (étudiés et/ou mis en application)
⦁ Cas d’usages : mise en place de datalakes (gestion d’ETL (Talend), modélisation des données…), mise à disposition d’environnements pour data scientists (Workbench, Dataiku…), nettoyage des données, refonte complète d’architectures IT orientées big data et IA (datalake, sécurité, containers (Docker)…)
⦁ Domaines : industry 4.0 (maintenance prédictive, optimisation des réglages, benchmark, etc.), marketing (customer 360, etc.), distribution (customer 360, benchmark, etc.), audit (optimisation des process, etc.), cybersécurité, finance
Résumé : développement et commercialisation de 3 projets personnels : développement du frontend et du backend, mise en place de l’architecture, containerisation et automatisation de l’ETL et des flux IA.
⦁ ********
⦁ Plateforme pour combiner, nettoyer, catégoriser et contrôler l’ensemble des verbatims clients.
⦁ Création des fonctions pour extraire et nettoyer les données (Zendesk…) via API et SFTP, catégorisation des verbatims via un moteur NLP utilisant le deep learning, mise à disposition des verbatims dans une base de données PostgreSQL.
⦁ Configuration de la base PostgreSQL, automatisation via Rundeck, containerisation des fonctions via Docker, hébergement et gestion via une Plateforme-As-A-Service open source (Caprover).
⦁ Installation et création de dashboards (Metabase, Superset), requêtes SQL, création de fonctions PostgreSQL.
⦁ Commercialisation auprès de responsables de l’expérience client.
⦁ ********
⦁ Box mensuelle d’huiles essentielles
⦁ Mise en place du serveur (sur docker) et installation de Wordpress avec l’extension WooCommerce et des modules adéquats (paiements récurrents, SEO, Stripe, etc.)
⦁
⦁ ********
⦁ Logiciel de gestion de projets et d’équipes à distance.
⦁ Développement du frontend avec VueJS, développement du backend avec appels aux API Firestore.
⦁ Mise en place et configuration d’un logiciel d’email marketing open source (Mautic).
⦁ Marketing auprès de communautés spécialisées (Betalist, ProductHunt…) et de chefs de projets.