Contexte : Data Analyste / Data Management, Expertise technique au sein de la FTDEC, préparation des données en amont pour la construction des Datasets en vue de calculer les KPI pour le pilotage en méthodologie Agile des activités de la direction Data Management, Marketing et Communication mais aussi pour le compagne marketing et le ciblage clients.
Mission :
ï§ Organiser/Participer aux ateliers de cadrage et d’expression de besoins avec les métiers
ï§ Développer des nouveaux flux d’intégration des données (Maping, Session, Workflow)
ï§ Créer et maintenir des nouveaux/anciens traitements sur l’ordonnanceur VTOM XVision
ï§ Faire l’analyse Fonctionnelle et Technique des flux existants pour les faire évoluer
ï§ Ecrire des requêtes complexes SQL Teradata pour Extraire les données selon le besoin métier
ï§ Réaliser le suivi de production (Recherches/Investigations, remise à niveau des flux)
ï§ Rédiger/Réaliser des plans de test et assurer l’accompagnement des métiers en phase de recette
ï§ Extraire/Préparer des données sur Power Query/ Big Query/ Power BI data flow/ Google Cloud
ï§ Production et mise à disposition des rapports avec Power BI Desktop et Service
ï§ Analyser/Visualiser des données sur Power Bi RS
ï§ Créer des mesures utiles avec le langage DAX et les tableaux de bord
ï§ Formation des utilisateurs finaux à la manipulation des rapports et la maitrise de solution power bi
ï§ Garantir la maintenance Evolutive et Corrective des applications de la DEC & DSI
Contexte : Amélioration, correction et ajout des traitements ETL Informatica dans le cadre du projet BCOMPIL, agrégeant les données de l'ensemble des Back-offices de gestion du domaine de l'Assurance Vie Individuelle chez Groupama-GAN. Ces Back-offices gèrent les évolutions des placements via les Garanties et les Supports des produits d’assurance vie.
Mission :
ï§ Mise à jour des SFD et rédaction d’une STD,
ï§ Développement d’évolutions et correction d’anomalies de flux d’alimentation DWH
ï§ Mise en place des données de recette en suivant certaines directives de la MOA
ï§ Support technique vis-à-vis des incidents de Production
ï§ Animation de points d’échange avec la MOA
ï§ Maintenance curative et évolutive de l’application BCOMPIL
Mission
Contexte : Mise en place d’une solution tactile prévue dans le cadre du projet filière unique
Alimentation d’un entrepôt de données en central, appelé Shared Reporting Space (SRS), par un flux de données unique reprenant les besoins de la comptabilité, des risques et de la liquidité.
Mission :
ï§ Chiffrage des taches
ï§ Rédaction des spécifications.
ï§ Paramétrage/configuration, Client/ Serveur d’Informatica 10.1.1.
ï§ Gestion d’administrateur Informatica avec l’éditeur
ï§ Optimisation des traitements ETL.
ï§ Maintenance d’un Flux JSON mise en place au préalable via le module B2B
ï§ Construction des Rapports BO Webi & Deski
ï§ Maintenance et optimisation d’univers BO (DataMart – Finance).
ï§ Suivi des livraisons, de recette, des run et Prises en charge des incidents après la mise en prod
ï§ Maintenance Curative/Evolutive et stabilisation de l’application
Mission
Contexte : De la migration à la maintenance curative et évolutive en passant par la construction d’un nouveau flux. Migration de la base IODA (oracle) vers NETEZZA Intégration des fichiers AEP dans ENEE
CACTUS, Construction des traitements d'intégrations des fichiers Contrat et Client dans ENEE
Mission :
ï§ Analyse de l’existant
ï§ Mise en place de la solution (Développement des Mapping, Session, Workflow)
ï§ Optimisation de la solution finale (Pushdown, Bulk-Rights, Scindage des Traitements)
ï§ Normalisation de la chaine (Renommage des tables, manipulation XML…)
ï§ Adaptation et standardisation des solutions SQL-ANSI, KSH, ETL
ï§ Test Unitaire, Test de non-régression, RUN de Chaine et vérification de la volumétrie
ï§ Chiffrage et planification des tâches et Assistance à la MOA
ï§ Développement script Shell
ï§ Correction des traitements existants, Reprise d’historique des données de 3ans
ï§ Test et suivi de livraison sur les différents environnements
ï§ Développement du nouveau flux avec la méthode Pushdown
Poste 2: Tech Lead
Contexte : Projet SUN
Intégration de la nouvelle offre OTO dans la chaine AXA
ISF : Impôt sur la fortune, maintenance évolutive de la chaine existante
IRF-2016 : Information Réglementaire et Fiscale
Mission :
ï§ Chiffrage et planification des tâches
ï§ Analyse de l’existant
ï§ Spécifications Techniques Détaillées
ï§ Animation de réunions avec la MOA
ï§ Développement (Mappings et Workflows)
ï§ Réalisation des tests unitaires
ï§ Support technique à l’équipe de développement et de recette
ï§ Assistance à la mise en production
Contexte : Projet AGIR (Agrégation des Risques) : Maintenance évolutive de la chaine AGIR pour les besoins de Bâle II et de certaines applications du groupe SG.
Mission :
ï§ Analyse de l’existant
ï§ Développement (Mappings, Session & Workflows)
ï§ Extraction de données
ï§ Réalisation des tests unitaires
ï§ Développement des scripts Shell pour lancement et ordonnancement des Workflows
ï§ Développement de solutions d’optimisation d’alimentation (SQL, KSH, Informatica)
ï§ Gestion et suivi des ordonnancements des différentes releases du projet sous Control M
ï§ Réalisation des dépannages à chaud en production lors des incidents bloquants
ï§ Pilotage des traitements d’alimentation mensuelle en PROD
ï§ Préparation et suivi des livraisons
ï§ Assistance en recette et à la mise en production
ï§ Maintenance corrective et évolutive
ï§ Lancement et suivi des Run sur tous les environnements (prod,préprod, homol, qualif, dev)
Contexte : Mise en place de la solution BackOffice pour la gestion et suivi du projet ACS, Aide pour Complémentaire Santé.
Mission :
ï§ Rédaction des spécifications fonctionnelles et techniques détaillées
ï§ Révision des normes de développement BackOffice/Unix/Informatica Power Center
ï§ Développement (scripts Shell, Maplet/Mappings/Worklet/Workflows, procédures stockées)
ï§ Mise en place de solution pour la gestion des rejets, Rédaction de plan de test
ï§ Développement des scripts en post-session et pré-session
ï§ Création et optimisation des univers Générations des rapports (deski et webi)
ï§ Réalisation de tests unitaires et tests d’intégrations et Gestion des anomalies et des évolutions
ï§ Réalisation du groupe de déploiement (Label, Query, Group)
ï§ Maintenance corrective et évolutive