Contexte :
Projet Orion : Assurer la cohérence entre les données budgétaires, Forecast(prévision) ainsi que les
ventes.
Projet Atlas (R&D) : Fournir un reporting réglementaire sur les formulations de parfums et produits
cosmétiques.
Mission :
â Conception fonctionnelle générale et détaillée
â Participation et animation des ateliers Métiers
â Développement des jobs Datastage pour l’alimentation de différents Datamart
â Développement des packages Cognos sous Framework Manager
â Sécurisation des données issues des Frameworks
â Développement de rapports et rapports Actifs sur Report Studio
â Maintenance et évolution des cube Powerplay Cognos
â Conception et développement de Cube tabulaire AAS
â Visualisation et exploitation des données des cubes tabulaires via Power BI
Compétences techniques :
Cognos 10.2 (Framework manager, Cognos report studio, Transformer, Event Studio),
Datastage, Azure Analysis Services, Power BI
Contexte :
Intégrer l’information des quatre filières de Reporting (comptabilité financière, analytique, risque de
crédit et liquidité) au niveau de détail le plus fin pour sécuriser la qualité des données et supprimer le
besoin de réconciliation dans l’objectif de produire un Reporting réglementaire Risque de Crédit (Bâle
II et III, IFRS9).
Mission :
Conception fonctionnelle générale et détaillée des Datamart risque de crédit et IFRS9
â Développement, alimentation et gestion des Datamart métier (Teradata)
â Développement des packages Cognos sous Framework Manager
â Développement de rapports prédéfinis sous Report Studio
â Optimisation des Rapports existants.
â Prise en compte des demandes d’évolution des rapports
â Réalisation des tests unitaires et de non-régression en environnement Report Studio
â Refonte du Datamart existant en proposant une nouvelle modélisation afin d’améliorer les
performances et les temps de réponse dans le cas d’un Reporting Ad-Hoc
Contexte :
Intégrer les données qui viennent des différentes applications historiques d’ERDF (données
contractuelles, données de mesures et les données réseaux) dans l’application STM afin d’effectuer
une reconstitution des flux ainsi que la prévision de la production d’électricité.
Mission :
â Concepteur/Développeur /référent technique
â Développement de Scripts : SQL, BTEQ, TPT (Teradata Parrallel Transporteur), ksh, XSLT, VBA
â Acquisitions des données des compteurs Linky (Données de mesures, données techniques de
comptage et réseaux, Notification d’ouverture de services Linky), R16, SIKAPA
â Extraction de données : différents flux vers les SI partenaires
â Recette usine et fonctionnelle
â Participation à des Task Force
â Préparation et participation à des ateliers client
â Rédaction des documents de conception
â Formation des équipes MCO
â Versionning avec Git et packaging des livraisons
Contexte :
Assurer la cohérence des données contractuelle d’ERDF en vue d’alimentation de l’application Reflux
servant à la production des bilans globaux de consommation d’électricité et la prévision de la demande.
Mission :
â Gestion et Résolution des incidents de production PDM
â Développement de scripts : SQL, BTEQ, TPT, PLSQL, SQL Loader, KSH
â Développement de différents chantiers :
â Requêtes de surveillance et d’extraction de données pour les métiers
â Indicateurs pour la validation de l’init STM
â Indicateurs pour la validation des acquisitions STM
â Outils VBA pour restituer les différents indicateurs
â Analyse et interprétation des écarts entre les SI
â Encapsulation des traitements livrés sur STM
â Rédaction des documents de conception
Contexte :
Création d’un INFOCENTRE pour la gestion des différentes données des agents du ministère de
l’éducation nationale.
Mission :
â Mise en place d’un INFOCENTRE et Gestion des Droits d'accès à ce dernier
Développement et TU des Interfaces, Traitements, Packages ODI
â Paramétrage des différents modules ODI
â Tests unitaires de tous les développements.
â Développement des Scripts Shell pour parallélisations et installation des traitements
â Rédaction de la documentation de livraison, d’exploitation et de conception
Compétences techniques :
Oracle Data Integrator, DB2 UDB9 (DB2 Visualiser, DB2 Centre de Contrôle), PowerAMC, Shell
Contexte :
Analyse des données de validations (titres de transports et tickets) afin de définir la fréquentation des
usagers, les rabattements sur les différentes gares, la mobilité des voyageurs ainsi que la vitesse
commerciale des bus.
Mission :
â Développement et TU des Interfaces, Traitements, Packages ODI
â Industrialisation du processus de livraison des scripts SQL ainsi que des Scenarios ODI
â Rédaction de la documentation de livraison, d’exploitation et de conception
â Prise en compte des demandes d’évolution des package Cognos ainsi que les rapports existant