Contexte Client : mise en place d’un référentiel de données permettant de suivre l’ensemble des unités de soins en Ile de France dont le CNAM à la charge de la gestion.
Travail réalisé : en tant que business analyste, j’ ai en charge la creation des spécifications fonctionnelles détaillées pour une équipe de 3 développeurs sous le lead d’un réfèrent technique, dont la mission sera de produire les flux Informatica nécessaires au chargement de l’ODS, du Datawarehouse, et des Datamart de l’architecture globale du référentiel des données des unités de soins. Création des univers BO BI4 puis des rapports BO permettant aux utilisateurs d’effectuer des requêtes récurrentes pour leurs besoins d’analyses quotidiennes.
Partie Analyse de l’existant, conception et rédaction des spécifications
• Prise de connaissance des spécification fonctionnelles générales (SFG)
• Organisation des points avec le client CNAM afin de lever des équivoques sur des points éventuellement pas clairs des Spécification Fonctionnelles Détaillées (SFD).
• Rédaction des spécifications fonctionnelles détaillées
• Organisation des points avec le référents technique et les développeurs Informatica, afin de s’assurer de la bonne compréhension des SFD, et du fichier de mapping des données et ses règles à respecter.
• Création physique sous Oracle 12c de l’ensemble des tables de l’ODS, Datawarehouse, Datamart avec Power AMC
Partie réalisation Recette des applications livrées
• Vérification du bon fonctionnement des applications livrées en Recette.
• Vérification de la conformité des données livrées dans les environnement de Rec, PreProd, Production
• Prise en compte des retours de la Recette via Qualitity Center et correction des anomalies
• Accompagnement des acteurs du Projets et transfert des compétences.
Contexte : Au sein de l’entité Datastage de l’équipe ITM de HSBC France, participation au projet de migration totale des applications HUB vers SAB via mise en place de jobs datastage .
Missions :
• Rédaction des spécifications fonctionnelles à partir du besoin client, consigné dans les cahiers de charges.
• Organisation des réunions de présentation des spécifications fonctionnelles aux Tech-lead Datastage.
• Prise en compte des retours des Techk-leads sur des points des spécifications à clarifier via pages Confluence.
• Prise en compte des estimations de charges de développements des jobs reçues par les Tech-Leads Datastage.
• Suivi des développements de Jobs datastage et prise en compte des questions des développeurs basés en Inde via les pages Confluence.
• Suivi via Quality Center de l’état d’avancement des évolutions, anomalies remontées, par les développeurs.
• Création de jeu de test, réalisation de test et validations de jobs développés pour leur promotion en environnement de tests, d’intégration et de Production.
• Création de rapport sur l’état d’avancement des jobs.
• Création de reporting auprès du responsable d’application concernant les choix technico-fonctionnels structurants
Contexte : Méthodologie : Scrum User Story
Programme de mise en place d'un nouveau dispositif (Projet Basyliq) de management de la liquidité. Développement d'une base de synthèse transversale au Groupe, contenant les indicateurs de pilotage et assurant des restitutions sous diverses formes. Notamment avec Business Objet et MS-BI
Analyse et études :
• Analyse du besoin client et rédaction des spécifications fonctionnelles des flux informatica à déployer
• Prise en compte de l’estimation des charges de développements et suivi du planing
• Création des ChangeRequest pour les anomalies « logguées » dans Jira.
• Gestion de backlog , rédaction d’US(User Stories)
• Assistance des développeurs dans le designing des jobs, les développements, la réalisation des tests comme souhaité.
Contexte : développeur confirmé Informatica et responsable projet techniques (Digital Projekt) dont le rôle est la mise en place des flux (Mapping, Workflows) informatica de chargement de tables cibles puis la création des univers Business Object et les rapports Webi.
Partie I: Développement Informatica
• Rédaction de spécifications Techniques détaillées des développements attendus
• Création des mapplets, mappings, en utilisant des transformations telles Router, Lookup, Sorter, Joiner, Rank, Filter, Aggregator, Source Qualifier, Normaliser, SCD stage etc nécessaire pour l'alimentation des tables cibles(dimension et Faits)
• Créations des mappings avec Lookup non connectés
• Création des scripts PL/SQL pour la gestion des séquences utilisées dans les tables de dimensions comme clef unique.
• Création des workflows en utilisant des tâches telles le Decision, Command, Event Wait, Event Raise, Timer etc.
• Création des scripts shell pour l'exécution sous Unix des Workflows et les livraisons des pacakges informatica vers les environnements de test et de recette.
• Tuning des flux lents et réalisation des tests d'intégration pour les tables chargées.
• Prise en compte et correction des retours en anomalies
• Création des spécifications techniques et détaillées.
Partie II Développement BO et configuration CMC
• Analyse des modèles de rapport BO existants devant être modifiés et proposition d'options d'utilisation meilleure des dits rapports.
• Administration de SAP-BO XI R3 via CMC, pour la création et l'affectation des droits aux utilisateurs, la création des utilisateurs, création de dossiers de développement, changement des tables cibles
• Création des spécifications techniques détaillées et spécifications fonctionnelles des rapports et univers BO créés.
• Création des univers BO pour chacune des applications en utilisant les restrictions telles Row Level Security,
• Création des rapports Webi en adéquation avec les modèles proposés
• Réalisation de tests unitaires et d'integrations et prise en compte des retours d'anomalies.
• Tuning des rapports Webi moins performant.
• Passage de connaissance et formation aux utilisateurs finaux pour leur création de rapports.
Contexte :
Après plusieurs années de pratique de l’analyse des informations contenues dans l’info centre, le client AG2R Lamondiale a décidé de mettre en place un environnement décisionnel, pour lequel nous aurons la charge de sa mise en place.
Travail réalisé :
Dans une équipe de 4 personnes, nous avons en charge la modélisation des datamart Contrat Santé, Chiffre d’Affaire, leur création physique, suivie de leurs alimentations par l’ETL Oracle Data Integrator. Création des univers BO XIR3 puis des rapports BO permettant aux utilisateurs d’effectuer des requêtes récurrentes pour leurs besoins d’analyses quotidiennes.
Partie Analyse de l’existant, conception et rédaction des spécifications
• Prise de connaissance du cahier de charge
• Analyse du périmètre de l’infocentre couvrant le datamart contrat santé devant être construit.
• Rédaction des spécifications fonctionnelles détaillées, de spécifications techniques décrivant le modèle décisionnel du Datamart.
• Proposition de la matrice décisionnelle du Datamart à construire pour validation par la MOA.
• Modélisation logique et Physique de l’ensemble des objets (tables de dimension, de faits, index etc.) des datamarts Contrat Santé et Chiffre d’Affaire.
• Création physique avec sous Oracle 10g de l’ensemble des tables du Datamart
• Rédaction de spécifications techniques décrivant les chargements de tables de l’ODS (Operational Data Store), des dimensions et des tales de faits et de création des rapports BO
Partie développement Oracle Data Integrator et Business Object
• Création des Interfaces, des variables et des traitements OD, des packages, et des scenarii ODI décrivant l’ordonnancement des différentes briques ODI concourant à l’alimentation des tables cibles oracles.
• Réalisation des tests unitaires et d’intégration des chargements desdites tables
• Création de rapport sur les tests de vérifications effectués.
• Configuration de la CMC BO : création des univers, des dossiers de travail, des groupes et utilisateurs, des connexions aux bases de données, et paramétrage des actions de publication, d’exportation vers PDF, de sauvegarde des documents BO
• Analyse des ébauches des rapports BO à créer et propositions pour une exploitation facile desdits rapports.
• Création des univers BO pour les différents Datamarts créés.
• Création avec WebI des rapports et documents BO respectant la maquette et, partage desdits rapports avec les différents utilisateurs.
• Réalisation des tests unitaires et d’intégration des rapports créés
• Création des BIARs pour livraison des rapports vers les environnements de Production et de Recette
• Prise en compte des retours de la Recette via Fichier Excel et correction des anomalies
• Rédaction de la documentation des univers et rapports BO créés
• Accompagnement des acteurs du Projets et transfert des compétences.
Contexte Client :
Chef de projet décisionnel dans une équipe de 4 personnes en charge du développement des applications d’épargne et de prévoyance chez BNPPARIBAS.
Travail réalisé :
Migration des applications issues des environnements ASSURVIE, NOMAD, DB2 vers les environnements Oracle exploitable avec Business Object XI pour les utilisateurs.
Partie Analyse de l’existant, conception et rédaction des spécifications
• Prise de connaissance du cahier de charge et analyse des applications devant être développées.
• Elaboration du plan de charge, du planning projet et suivi de l’activité de l’équipe projet.
• Conception des modèles, conceptuels (MCD), logiques (MLD), et physiques (MPD) de données des applications à développer, afin de faciliter leur migration vers l’environnement Oracle.
• Rédaction des spécifications fonctionnelles détaillées, de spécifications techniques décrivant les chargements de tables cibles et les créations des rapports BO.
Partie développement Informatica
• Création des mapplets, mappings, possédant les stages Router, Lookup, Sorter, Joiner,Rank,Filter,Aggregator, Source Qualifier, Normaliser, SCD stage, CDC necessaire pour l'alimentation des tables cibles(Dimensions et Faits)
• Création des scripts PL/SQL pour l'utilisation des sequences.
• Création des workflows en utilisant les tâches : Decision, Command, Event Wait, Event Raise, Timer etc.
• Creation des scripts shell pour l'execution sous Unix des Workflows.
• Tuning des flux lents et realisation des tests d'integration pour les tables chargées.,
• Réalisation des tests unitaires et d’intégration des chargements de tables,
• Rédaction d’un rapport sur les tests de vérifications effectués.
• Rédaction d’un PV (procès-verbal de verif) de vérification autorisant le passage en Recette
Partie développement BO et configuration CMC
• Configuration de la CMC BO : création des univers, des dossiers de travail, des groupes et utilisateurs, des connexions aux bases de données, et paramétrage des actions de publication, d’exportation vers PDF, de sauvegarde des documents BO.
• Analyse des ébauches des rapports BO à créer et propositions pour une exploitation facile desdits rapports.
• Développement des univers pour chacune des applications à créer
• Création des rapports et documents BO respectant la maquette des rapports à partir de WebI et, partage desdits rapports avec les différents utilisateurs.
• Réalisation des tests unitaires et d’intégration des rapports créés.
• Création des BIARs pour livraison des rapports vers les environnements de Production et de Recette.
• Prise en compte des retours de la Recette via Quality Center et correction des anomalies.
• Rédaction de la documentation des univers et rapports BO créés.
• Accompagnement des acteurs du Projets et transfert des compétences.
Contexte client :
Au sein du service de la division DSIT-EOG, constitué de 16 personnes relevant à la fois du personnel de la SNCF (4 personnes), des équipes XRDJ (6personnes) et de deux développeurs datastage, nous aurons pour mission la mise en place d’un traitement spécifique datastage, en amont de XRDJ, alimentant plusieurs champs fonctionnels, via des enrichissements et des transcodifications, à la suite de la migration du système d’informations de données vers le progiciel de gestion PeopleSoft.
Travail à réaliser :
• Conception et développement des Serveurs Jobs datastage en amont de la couche XRDJ réalisant le paramétrage pour la vacation datastage.
• Création des univers Business Objet et optimisation de ceux existants afin de faciliter l’analyse des données du data warehouse via les rapports WebI ou deskI
• Analyse de l’existant et recueil des besoins.
• Elaboration des schémas directeurs de la nouvelle architecture
• Développement des serveurs jobs et routines de l’application
• Ecriture des scripts shell pour le lancement des jobs via les commandes unix.
• Ecriture des fichiers « .bats » pour l’import/Export des jobs vers les environnements de QUAL, TEST et RECETTE.
• Configuration de STAT pour les livraisons des jobs Datastage en production.
• Réalisation des tests et livraison en production puis vers les autres environnements (Recette, Test).
• Création des univers BO et Optimisation de ceux existants.
• Création des documents BO.
• Accompagnement et formation des acteurs-clefs du projet, transfert de compétence
Contexte client :
Dans le cadre de la création de l’Infocentre du SI Client de cet expert en assurance, nous avons pour mission, au sein d’un groupe de 4 personnes, de créer toute la chaine ODI (Oracle Data Integrator) d’alimentation de l’Infocentre en fonction de nombreuses règles de gestions.
Travail à réaliser :
• Développement d’un flux ODI (oracle Data Integrator) d’alimentation des fichiers XML, à partir de données (format XML) issues des échanges via web services, pour les clients GROUPAMA, DARVA. Développement d’un Web service permettant la récupération des fichiers sources des differents clients (Groupama, Darva), avant l’automatisation des traitements.
• Création d’interfaces avec le Designer ODI en effectuant des mappings selon les règles de gestions souvent complexes nécessitant des requêtes SQL complexes.
• Définition des Topologies logiques et créations des Modèles des tables et fichiers cibles.
• Définition des contextes de Dev et de Prod.
• Création des variables Sysdate, d’heure d’insertion et autres Variables nécessaires pour la gestion d’envoi de mail et de rafraichissement de sdates.
• Réalisation de nombreux mappings des diverses interfaces nécessaires.
• Création des packages ordonnançant l’exécution des interfaces et des autres steps devant conduire au transfert du fichier vers le serveur et a l’envoie des mails aux différents intervenants au projet.
• Création de scenario d’exécution du package
• Utilisation du Module Journal pour le suivi des exécutions des Interfaces et la correction des erreurs.
• Rédaction d’un rapport sur les tests et l’architecture de l’ensemble du système.
• Développement d'un service web en java pour la récupération du flux XML de données.
Contexte client :Au sein d’une équipe de 5 personnes en charge de la gestion des clients du SI (système d’information) clients de la banque de détails Deutsche Bank, nous avons pour mission d’opérer la migration vers datastage PX 7.5, de la chaine d’alimentation du data warehouse du SI qui était jusqu’ici alimentée par Datastage Serveur.
Travail réalisé:
• Conception et développement de Jobs Datastage PX, à partir de tous les servers Jobs (Datastage Application server), du système d’informations clients de la filiale Deutsche Bank de Francfort.
• Conception de l’architecture générique (Template générique) de tous les Jobs.
• Développement des Parallels Job, réalisant les taches d’extraction, nettoyage, transformation, intégration et alimentation des données dans le data warehouse.
• Utilisation de différents types de stage tells Surrogate Key Generator, Change Capture, Sort Aggregator, Transformer, OCI etc. pour le développement des Jobs.
• Ecriture des requêtes(SQL) complexes pour faciliter le tri des données souhaitées des bases de données sources quand nécessaire.
• Développement du séquenceur gérant l’ordre d’exécution de chacun des Jobs unitaires.
• Utilisation de Datastage Director pour le suivi des exécutions, les tests, la correction des erreurs, et le monitoring des versions exécutables
• Développement des scripts shell facilitant le chargement des données et l’automatisation de la manipulation des fichiers.
• Réalisation des tests unitaires, et d’intégration.
• Documentation de tous les parallèles Job développés et rédaction de spécifications desdits job.