RETEK Inc est une entreprise spécialisée dans l’édition d’applications pour le secteur de la distribution. RETEK a été racheté par Oracle.
Maintenance Corrective et Evolutive sur l’ensemble des flux du domaine de la banque de données
Conception de nouveau flux d’acquisition (Autoconsommation collective, Gestion PAS 15 dans Linky)
Développement des flux d’acquisition et worklows en Informatica.
Analyse des incidents et proposition de solution de résolution
Maintien en Conditions Opérationnelles des applicatifs au travers des outils de ticketing et d’attitudes proactives
Gestion de la qualité de données, analyse et correction
Mise en place des indicateurs de suivi des alertes et rejets
Suivi de production (Monitoring des flux en terme d’exécution et de performances, rattrapages, etc)
Support technique et fonctionnels
Maitrise des technologies Bases de données Teradata (bi-temporalité, optimisation des performances, plan d'exécution, skew, etc.)
« Profilage Dynamique »
Réalisation d’un Proof Of Concept de la macro de calage sur marge
Réalisation d’études avec le métier
Implémentation du modèle de données Teradata
Modélisation de la couche sémantique : définition des vues Teradata simple et complexes
S’approprier le calage sur marge, dont la préparation des données en amont
Tester les différentes solutions techniques afin de faire un choix cohérent et pérenne
Implémentation du calage sur marge pour tous les profils
Initialisation des banques de données de l’espace projet : courbes de charge et données auxiliaires
Calcul des coefficients dynamiques à partir des puissances pondérés et comparaison avec les résultats du métier
Lancement et test de la chaîne de « bout en bout »
Support technico-fonctionnel aux utilisateurs
Administration et suivi via Teradata Viewpoint
Projet : STM (Système de Traitement de Mesure) est une solution BigData qui intègre la dé-commissionnement de plusieurs applications existantes reprises dans STM. Cette solution permet d'absorber la volumétrie de données de mesure liées aux compteurs communicants Linky.
Analyse et gestion des anomalies
Résolution des incidents de production
Analyse détaillée et développement des mappings et workflow d’alimentation sous Informatica
Développement de scripts BTEQ, TPT, SHELL permettant la correction des anomalies
Rédaction des fiches d’analyse et des modes opératoires d'installation
Prise en compte des demandes d'expertises au fil de l'eau : incidents, optimisation, deadlock, conseils
Réalisation des livrables et packaging
Accompagnement des nouveaux arrivants
Suivi du cahier de recette préalablement établis pour le passage des patchs correctifs en pré-production et leur déploiement en production
Réalisation des Tâches en RUN (Fonctionnement Courant) et tâches en BUILD (Mode Projet).
Nombre de personnes au sein de l’équipe : 20
Projet : Système de Traitement de Masse / Datalab SIKAPA
Le projet STM « Système de Traitement en Masse » vise à doter ERDF d’un SI dédié au stockage dans la durée et au traitement des données de mesures de suivi de la consommation des POM (Point de mesure) / clients. Ces traitements se placent entre l’acquisition des mesures brutes reçues des applications de relève (SAR et GEC) et la publication/restitution vers les destinataires des mesures validées.
Conception et développement des procédures/macros Teradata utilisées dans les fonctionnalités de l’IHM (recherche, restitution).
Réalisation des livrables et packaging
Developpement des mappings d'alimentation sous informatica
Analyse et correction des anomalies des traitements existants
Développement des vues métiers pour les besoins de restitutions
Export des données dans des fichiers csv (TPT Export) pour les applications avals.
Chargement espace de staging à partir des fichiers (TPT Load)
Alimentation de l’espace de travail depuis l’espace de staging (BTEQ, Shell, TPT Load)
Alimentation de socle depuis l’espace de travail (BTEQ, Shell, TPT Load)
Mise en place de Datamarts implémentés en Datalab à savoir mise à disposition des données rapide et directe aux métiers avec une capacité à faire évoluer les besoins de manière récurrente dans le cadre de projets itératifs/agiles
Nombre de personnes au sein de l’équipe : 30
Projet : Interface Mutualisée Risque et cohérence comptable– Programme Bâle II/III
IMR collecte et met à disposition des données liés aux risques de crédits et est source de données des calculateurs de risque et de restitutions sur les applications avales
Rédaction de spécifications techniques détaillées
Développements des mappings et workflow d’alimentation sous Informatica
Développement des procédures PL/SQL sous Teradata pour marquer les données à rendre éligible pour le calculateur du risque de crédit sous FERMAT. Les procédures PL/SQL se base sur les données collectés (BCE, MRP,…) comme source, applique des règles de gestion (formatage, transcodification, nettoyage, agrégation, …) avant de les marquer.
Développement de procédure PL/SQL pour la désactivation des anciennes tranches de crédits. Le rôle de la procédure est de permettre de rendre invisible des tranches de crédit en respectant des règles de gestion complexes (utilisation des tables volatiles, cursor, gestion des exceptions,..).
Développement de procédure PL/SQL pour l’intégration des nouvelles tranches générées par le calculateur de risque FERMAT.
Gestion des erreurs et exceptions en PL/SQL sous Teradata
Développement des fonctions et macro sous Teradata. Ces macro et procédures sont soit exécutées via des batch unix ou appelées via informatica.
Mise en place des vues Teradata pour la restitution des données via l’IHM Java d’ajustement
Maintenance corrective et évolutive des développements
Prise en charge progressive de nouveaux projets
Optimisation des traitements Informatica et des requêtes sql (mode Bulk, TPT LOAD)
Suivi des traitements de production avec communication aux différents intervenants.
Projet : Interface Mutualisée Risque et cohérence comptable– Programme Bâle II
IMR collecte et met à disposition des données liés aux risques de crédits et est source de données des calculateurs de risque et de restitutions sur les applications avales
• Rédaction de spécifications techniques détaillées
• Développements des mappings et workflow d’alimentation sous Informatica
• Développement des procédures PL/SQL sous Teradata pour marquer les données à rendre éligible pour le calculateur du risque de crédit sous FERMAT. Les procédures PL/SQL se base sur les données collectés (BCE, MRP,…) comme source, applique des règles de gestion (formatage, transcodification, nettoyage, agrégation, …) avant de les marquer.
• Développement de procédure PL/SQL pour la désactivation des anciennes tranches de crédits. Le rôle de la procédure est de permettre de rendre invisible des tranches de crédit en respectant des règles de gestion complexes (utilisation des tables volatiles, cursor, gestion des exceptions,..).
• Développement de procédure PL/SQL pour l’intégration des nouvelles tranches générées par le calculateur de risque FERMAT.
• Gestion des erreurs et exceptions en PL/SQL sous Teradata
• Développement des fonctions et macro sous Teradata. Ces macro et procédures sont soit exécutées via des batch unix ou appelées via informatica.
• Mise en place des vues Teradata pour la restitution des données via l’IHM Java d’ajustement
• Maintenance corrective et évolutive des développements
• Prise en charge progressive de nouveaux projets
• Optimisation des traitements Informatica et des requêtes sql (mode Bulk, TPT LOAD)
• Suivi des traitements de production avec communication aux différents intervenants.
Projet : Migration des flux PL/SQL vers Informatica 9
• Définition des normes de développement et rédaction du guide de développement et best practices.
• Définition de la stratégie d’alimentation et de reprise.
• Analyse de l’existant et rétro-documentation pour extraire les règles de gestion sur 4 projets initialement développés en PL/SQL, dans le domaine de l’assurance vie et prévoyance. Ce travail nécessite une bonne connaissance de PL/SQL pour pouvoir retranscrire et transformer l’existant (cursor, boucle, trigger,…) en traitement informatica et batch DOS.
• Optimisation des requêtes sql (explain plan, création d’index, utilisati...