Description :
Dans le cadre de la preparation des données d’assurance pour l’entrée en vigueur de la norme IFR17 à mise en place un module : le MTI en charge du control des fichier de données des fichier émis par les entités dont les sources sont de 3 types :
Données issues des sytèmes comptables (1 onglet : BT pour Business Transaction)
Données issues des sytèmes actuarials (5 onglets : TV pour Target Values – BE pour Best Exchange Cash Flow – EP pour Exposure Periode Split – DE pour Product Deferralt – VR pour Vectors and RATES)
Donées de parametrage (4 onglets : ACCPD pour accounting portofolio - ACTPD pour actuarial portofolio – PC pour portofolio Classificiation – PA pour portofolio ASSIGNMENT
Le fichier pivot final a envoyé à SAP FPSL est constitué des 10 onglets, il valide si tous les 10 onglets ci-dessus sont valides
Les entités émettent de type de fichiers qui impement 3 models (PAA, BBA et VFA) sur deux perimetres : VIE , NON VIE :
Fichier déjà au format pivot (fichier à controler par le MTI)
Fichier comunautaires (provenant de SI communauaires ASSURETAT, BART)
Role du MTI : en utilisant un plan de control defini et un dictionnaire de données
Controler les fichier au format pivot
Transformer, enrichir les fichiers communautaires pour produire des fichier pivots
Envoyer/diffuser le fichier pivot vers SAP FPSL et SAP BOFC
Taches :
Développement du module de control des fichiers en entrées du MTI (Module de Traitement des Interface : socle constitué d’un ETL (Informatica 10.4) et d’un IHM developpé en java) :
Le moteur de regles qui implementes les regles du plan de control à été été développés en shell
Ce motreur de regles éffectue les actions suivantes :
control de surface et control de structure
Control de la nomenclature des fichiers (naming convention defini dans le plan de control)
Classe les fichiers en fonction du status affecté par le moteur de regles des control
Effectue des reject de fichier ou classe dans le repertoire approprié les fichiers qui on reussi le tests avec le moteur de control
Execute les workflows control de structure et données pour les fichier OK suivant le resultat du moteur
Developpement des transformations
La partie des transformations part des sources communautaires pour produire des fichiers au format pivots
Les sources sont differentes d’une edb à l’autre et d’un model à l’autre
Fichiers actuarials du fichier pivot : TVE – DE – BECF – VR – EPS
Fichiers parametrage du fichier pivot : ACCPD – ACTPD – PA – PC
Fichiers accountig du fichier pivot : BT Business Transaction
Developements des mapping, mapplets, generation dynamiques fichiers de parametres utlisés par l’intégration services informatica et pour les controls et pour les transformations via scripts shell d’automatisation
Taches:
Développement des interfaces entrantes/inbound et sortantes/outbound d’echange de payload en 4 web services pour envoyer (nbound)/recevoir (outbound) des donnees MDM entre Samofi et Atrium.
Les donnes sont échanges entre Atrium et les web service via le protocole REST api sous format JSON
Souces Systèmes : Fichiers MDM fournit par Sanofi
Analyse Fonctionelle et Création des Technical Design
Developpent des mapping de generation des payload MDM a partir des source CSV
Plateforme de développement : Informatica Cloud
Technologie : Transformation REST API
Client : Poste client sur lequel est installé le secure agent
Postman : Rest client for testing CRUD operation POST GET PUT DELETE
Server : IICS web application
Taches :
Extraire des donnees MDM SAP HANA via une mapplet qui utilise un listener développé en java qui se connecte a EBX
pour extraire des données sous format xsd afin d’alimenter des cibles Oracle.
En entrée 14 fichiers xsd fournis par EBX via un listener java.
Redaction des Technical Design (SFTD) a partir du SwissRe - Atlas - Detailed Business Glossary - v0.10
Redaction/execution des scripts DDL de création des tables cibles oracle
Développent des flux (factorisation, un seul mapping pour l’alimentation des cibles oracle)
Préparation des BL et livrables (script sql, technical design, export infa…)
Taches :
Déploiement du processus de montée de version de la plateforme Informatica Data Quality Gouvernance Edition
De version 9.6.1 a la version 10.1.1
Déploiement du guide de migration sur les environnements de développement et de recette.
Industrialisation des Workflows :
Rédaction des scripts Shell d’automatisation
Migration de l’enivrement de développement puis de recette dans cet ordre.
Rédaction du guide de configuration et de déploiement des scripts
Assistance migration en environnement de production
Taches : Implémentation du Core Model pour les pays de la zone EMEA
implémentation de la Localization du core model
BOOST - Master Data Localization Procedure
BOOST - Fact Localization Procedure
Extraction de modules SAP (SD-MM-FI-COPA-COCCA) and loading data Strategy
Rédaction et maintenance des documents techniques relatifs aux développements
Mission : Analyse, conception développement des Interfaces liées aux flux financiers
Prise en charge des demandes d’évolution
Développements de nouveaux mappings
Création des sessions associées aux mappings
Correction d’anomalies
Création workflows
Mise à jour des fichiers de configuration des workflows
Points réunions – état avancements - affectations des tasks par équipe
Modélisation des scenarii d’extraction (SQL mapping )
Référent technique Informatica PowerCenter
Mission : Expertise Informatica transitoire sur le plateforme INES des échanges (flux informatica & Webmethod correspondant à l’enchainement de plusieurs activités métiers) mise en place par l’ancienne CDE.
Audit des développements existants
Développement de nouveaux flux
Traitement des évolutions
Correction d’anomalies
Mission 1 : Réalisation d’applications décisionnelles liées au DWH Enterprises
Etudes faisabilité - Chiffrage pour le projet BAF (Migration des fichiers FT à structures complexes vers des tables cibles Oracle)
Développements (denormalisation : shell – chargement : shell+ Informatica+shell pour validation, vérification du nombre de lignes lues et chargées…)
analyse problématique d’alimentation du DWH en journée
Réalisation de documents Techniques
Préparation des livrables & BL associés
Reporting pour le Service Facturation Business Objects Webi - Deski
Demande extraction Reporting BO SCE (SQL à la Carte) pour APHP (Assistante Public Hôpitaux de Paris)
Mission 2 : Suivi quotidien des applications de déploiement des clients Entreprises :
Qualité & Service
Fraîcheur des données
Indentification & résolution des incidents liés aux traitements Informatica du DataWareHouse
Mission 3 : Analyse d’impact, cartographie des différents environnements pour la migration (8.1.1 – 9.0.1) pour les environnements de développements, intégration, validation fonctionnelle et production.
Contexte : Valorisation de données sur les différents Juillet 2010 projets décisionnels constituant le projet AXE2.
Mission 1 : Intégrateur en backup sur les environnements de développement, intégration, validation et production
Réception des demandes de déploiement des patches livrables : 3 types de patch
Patch Dataware : contient les scripts SQL de création, mise à jour, suppression, d’attribution de droits en schéma et le bon de livraison associé
Patch ETL : contient les ...
SCHEMA STAGING : pour le staging des données
SCHEMA REPORT : pour le reporting
SCHAMA REFERENCE : pour les tables de références
ETL : Informatica 10.4
Livraison : outils client Domino pour la constitution des packets de et bon de livraison des developpement ETL BDD et Scripts – Audi pour le deployement des builds relatifs au livrables
Bureautique : Teams - Powell Hub – Offiche 365