â¼ PROJET e-Cockpit : Automatiser le calcul des indicateurs clés de performance (KPI) pour les périodes de
mi-année et de fin d'année
Le projet a été conduit suivant une méthodologie Agile
DOMAINE D’INTERVENTION :
Développement et Intégration :
â¼ Développement de scripts d'intégration : Concevoir et implémenter des scripts d'intégration répondant
aux exigences métier.
â¼ Versionnage et déploiement des scripts : Gérer les versions des scripts et automatiser leur déploiement
à l'aide de Git.
â¼ Gestion des configurations d'infrastructure (IaC) : Définir et gérer l'infrastructure avec Terraform.
â¼ Réalisation et livraison des nouvelles fonctionnalités : Développer et mettre en production les
nouvelles fonctionnalités du système.
Data et Reporting :
â¼ Historisation des données dans E-Cockpit R&I : Archiver les données et indicateurs dans le Data Set ECockpit R&I de façon semestrielle.
â¼ Génération de l'historique des données mensuel : Produire un rapport historique des données à la fin
de chaque mois.
â¼ Automatisation du calcul des KPI : Automatiser le calcul des indicateurs clés de performance (KPI) pour
les périodes de mi-année et de fin d'année.
â¼ Calcul préliminaire des KPI sur GCP : Effectuer un calcul préliminaire des KPI sur Google Cloud Platform
(GCP).
â¼ Création et mise à jour de l'historique des données : Créer et maintenir l'historique des données, y
compris la reprise des données historiques.
Surveillance et Maintenance :
â¼ Monitoring de l'exécution des scripts avec Airflow: Configurer Airflow pour surveiller l'exécution des
scripts et gérer leurs dépendances.
â¼ Investigation des anomalies : Identifier et résoudre les anomalies en environnements de préproduction
et de production.
â¼ Gestion des blocages de traitement des données : Surveiller et résoudre les blocages survenant lors du
traitement des données.
â¼ Maintenance et enrichissement de la documentation technique : Maintenir la documentation
technique à jour et l'enrichir en fonction des évolutions.
â¼ PROJET DOOH : Intégration des données des écrans digitaux
Le projet a été conduit suivant une méthodologie Agile (Scrum)
DOMAINE D’INTERVENTION :
Analyse et Conception :
â¼ Analyse des besoins et étude de faisabilité : Analyser les besoins métier et techniques, évaluer la
faisabilité des solutions et estimer les charges de travail associées.
â¼ Conception des évolutions : Concevoir les solutions techniques pour répondre aux besoins d'évolution
du système.
Développement :
â¼ Développement et maintenance des scripts BDD : Créer et modifier les scripts de base de données.
â¼ Développement et maintenance des jobs Talend : Développer et modifier les jobs d'intégration de
données avec Talend.
Tests et Validation :
â¼ Tests de non-régression post-migration : Réaliser des tests de non-régression sur les traitements Talend
après la migration des bases de données vers Azure Cloud.
Surveillance et Maintenance :
â¼ Surveillance des traitements (Monitoring) : Superviser le bon fonctionnement des traitements et
identifier les éventuels problèmes.
Collaboration et Revue de Code :
â¼ Revue de code : Participer à la revue de code des travaux des autres développeurs.
â¼ PROJET Remédiation NEO -IDG : Génération des fichiers sources d’IDG
DOMAINE D’INTERVENTION :
Analyse et Conception :
â¼ Rédaction des spécifications : Rédiger les spécifications fonctionnelles et techniques détaillées pour les
développements.
Coordination et Communication :
â¼ Organisation des réunions avec les responsables SDDS : Organiser et animer des réunions avec les
responsables des Share Domain DataSets (SDDS) sur Google Cloud Platform (GCP) pour coordonner les
échanges de données.
Développement et Intégration :
â¼ Développement des flux d'extraction BODS : Développer les flux d'extraction de données depuis GCP
à l'aide de Business Objects Data Services (BODS).
Tests et Validation :
â¼ Tests unitaires et d’intégration : Élaborer et exécuter des tests unitaires et d'intégration dans les
environnements de développement, de pré-production et de production.
Déploiement et Support :
â¼ Génération et livraison des scripts de création de tables : Générer et fournir les scripts SQL pour la création
des tables.
â¼ Assistance au déploiement : Assister les équipes de déploiement lors de la mise en pré-production et en
production.
â¼ PROJET Galileo : Enrichissement de l’entrepôt de données opérationnelles et décisionnelles de la Direction
des Services bancaires (DSB)
Le projet a été conduit suivant une méthodologie Agile (Scrum et Kanban)
DOMAINE D’INTERVENTION :
Analyse et Conception :
â¼ Analyse des besoins et étude de faisabilité : Analyser les besoins métier et techniques, évaluer la
faisabilité des solutions et estimer les charges de travail associées.
â¼ Conception des évolutions : Concevoir les solutions techniques pour répondre aux besoins d’évolution
du système.
Développement et Intégration :
â¼ Développement et maintenance des jobs Talend : Développer et modifier les jobs d’intégration de
données avec Talend.
â¼ Création et modification des scripts Windows : Créer et modifier les scripts d’automatisation pour
l’environnement Windows.
Surveillance et Maintenance :
â¼ Supervision des traitements Galileo : Surveiller le bon fonctionnement des traitements Galileo et
identifier les éventuels problèmes.
â¼ Optimisation de la solution décisionnelle : Optimiser les performances de la solution décisionnelle
existante, incluant les procédures stockées, les ETL (Extract, Transform, Load) et le reporting.
Migration et Support :
â¼ Migration des serveurs batch : Assister à la migration des serveurs batch de Windows Server 2008 vers
Windows Server 2018.
Projet SKNOW + :
Ce projet de refonte technique migre les flux SAP BODS vers Talend Data Integration et Big Data. Il inclut
l'implémentation d'un datalake et de datamarts alimentés par diverses sources, servant de base aux univers BO
et aux datasets Power BI. Cette migration améliore l'alimentation et la gestion des données.
DOMAINE D’INTERVENTION :
Conception et Documentation :
â¼ Définition des interfaces : Rédaction des contrats d'interface pour assurer la cohérence et la compatibilité
entre les différents systèmes.
â¼ Modélisation des données : Modélisation des données du data lake et des data marts pour optimiser leur
structure et leur utilisation.
Migration et Développement :
â¼ Migration des flux BODS vers Talend : Migrer les flux SAP Business Objects Data Services (BODS) vers Talend
Open Studio.
â¼ Développement des flux d'alimentation : Développer les nouveaux flux Talend pour alimenter le data lake
et les data marts.
â¼ Développement de l'ordonnancement : Développer les jobs d'ordonnancement pour automatiser
l'exécution des traitements Talend.
Tests et Validation :
â¼ Tests unitaires, d'intégration et de non-régression : Réaliser les tests unitaires, d'intégration et de nonrégression pour garantir la qualité et la fiabilité des développements.
Déploiement et Intégration Continue :
â¼ Gestion du versioning et des livraisons : Gérer le versioning du code et automatiser les livraisons avec GitLab
et Jenkins.
Surveillance et Maintenance :
â¼ Supervision des traitements : Monitorer les jobs Talend via Talend Administration Center.
â¼ Maintenance corrective et évolutive : Assurer la maintenance corrective (résolution des bugs) et évolutive
(ajout de nouvelles fonctionnalités) du système.
Projet SKNOW et projet Legacy:
L'objectif est de consolider les informations relatives aux formules et à leurs différents périmètres en
provenance des applications métiers suivantes : Formules Net, MP Net, OFF, LIMS Analyse, LIMS-Microbio,
Bridge et Orchestra. Cette intégration permettra d'alimenter les projets SKNOW et Legacy avec des données de
formulation complètes et cohérentes.
DOMAINE D’INTERVENTION :
Conception et Documentation :
â¼ Rédaction des spécifications fonctionnelles et techniques détaillées.
â¼ Rédaction de la documentation utilisateur (installation, exploitation, guides utilisateurs des univers).
Développement et Maintenance BODS:
â¼ Développement de nouveaux jobs BODS (Business Objects Data Services).
â¼ Développement des jobs d'ordonnancement des traitements BODS.
â¼ Maintenance corrective et évolutive du système d'information BO.
â¼ Versioning des jobs BODS via le référentiel central.
Univers BO :
â¼ Création et publication des Univers BO.
â¼ Création et évolution des Univers BO sous IDT (Information Design Tool) et UDT (Universe Design
Tool).
â¼ Traduction des univers en bilingue (Outil de gestion de la traduction).
Rapports Webi:
Création, évolution et maintenance des rapports Web Intelligence (Webi) (Rich Client et service Web).
â¼ Planification et migration des rapports BO vers les nouveaux univers.
Administration et Support :
â¼ Gestion des droits d'accès (groupes, utilisateurs, univers, dossiers partagés via CMC - Central
Management Console).
â¼ Organisation de sessions de présentation des nouveaux univers aux utilisateurs.
â¼ Assistance aux utilisateurs pour la migration de leurs rapports.
â¼ Supervision des flux d'extraction et d'alimentation BODS.
Modélisation et Création de rapports Power BI :
â¼ Modélisation des données de restitution et création des datasets.
â¼ Création de rapports Power BI.
Base de Données et Déploiement :
â¼ Génération et livraison des scripts de création/modification des tables.
â¼ Assistance à la mise en intégration et en production.
Tests et Validation :
â¼ Elaboration et exécution de tests unitaires et d'intégration dans les environnements de
développement, d'intégration et de production.
Projets Planet-Hair :
Ce projet vise à intégrer les données d'évaluation issues de l'application Planet-Hair des Centres
d'Évaluation des Produits et des Techniques Capillaires. Ces données, extraites sous forme de fichiers, serviront
à construire un univers Business Objects (BO) dédié.
DOMAINE D’INTERVENTION :
Conception et Documentation :
â¼ Spécifications techniques : Rédaction des spécifications techniques détaillées.
â¼ Guides utilisateurs : Présentation et rédaction des guides utilisateurs pour les univers Planet-Hair.
Développement et Intégration :
â¼ Développement des flux BODS : Développement des traitements Business Objects Data Services
(BODS) pour l'alimentation de la base de données Planet-Hair.
â¼ Création de l'univers BO : Création de l'univers Planet-Hair sous Information Design Tool (IDT).
â¼ Création des rapports Webi : Création des rapports Web Intelligence (Webi) en mode client riche et
web.
Tests et Validation :
â¼ Tests unitaires : Élaboration et exécution des tests unitaires.
Déploiement et Administration :
â¼ Planification des rapports : Planification des rapports Business Objects (BO).
â¼ Gestion des droits d'accès : Gestion des utilisateurs et des droits d'accès aux univers et aux dossiers
partagés de l'univers Planet-Hair.
Projet migration de la GED :
Afin de garantir la continuité de service pendant la migration de la GED, maintenir l'application GLIS de
traitement des sinistres pour les contrats d'assurance habitation.
DOMAINE D’INTERVENTION :
Documentation :
â¼ Mise à jour de la documentation : Mettre à jour la documentation SFD
(Spécifications Fonctionnelles Détaillées) avec les évolutions apportées à
l'application.
Développement et Intégration :
â¼ Développement et maintenance Talend : Maintenance des flux Talend
existants et développement de nouveaux jobs.
â¼ Création d'architecture : Conception de la nouvelle architecture, incluant les
tables, les flux de données, et les batchs de lancement et d'ordonnancement.
Tests et Validation :
â¼ Tests : Réalisation des tests unitaires, des tests d'intégration et des tests de
non-régression.
QlikView :
â¼ Modélisation de données : Modélisation des données sous QlikView.
â¼ Création de rapports : Création de rapports QlikView pour les utilisateurs
Maintenance et Support :
â¼ Maintenance corrective et évolutive : Maintenance corrective et évolutive de
l'application.
Migration (Étude) :
â¼ Assistance à l'étude de migration : Participation à l'étude du projet de
migration, incluant l'analyse de l'architecture source et cible, de la volumétrie
et des formats des données.