Au sein de ENGIE BtoC - Direction des Clients Professionnels et plus
précieusement au sein du DATA OFFICE (équipe RID) opérant pour des
activités de gouvernance des données garantissant la mise en place
d'une plateforme de gouvernance des données (DATA CATALOG / DATA
QUALITY /DATA LINEAGE )
- Mise en place de tableaux de bord qualité des données : données
distributeur, données échangées entre le distributeur ENEDIS et le fournisseur
ENGIE
- Mise en place de tableaux de bord de qualité des données : souscriptions
aux données de mesure (fine data)
- Mise en place d'actions correctives garantissant l'exactitude, l'exhaustivité,
la conformité, l'intégrité, la cohérence, ainsi que la disponibilité des données
distributeurs
- Rédaction de fiches concepts : lieux de consommation, point de
consommation (aspect technique/fonctionnel)
-Ingestion des données relatives au Glossaire Métier dans COLLIBRA
-Gestion et supervision des Métadonnées Techniques : collecte des
différentes métadonnées des différentes applications composant le SI dans
COLLIBRA (DATA sources )
-Ingestion de métadonnées techniques dans COLLIBRA
- mise en place des différents types d'Assets COLLIBRA ( Technology Asset ,
Governance Assets , ..)
-Mise en place de diagrammes Lineage sous COLLIBRA Data Lineage
Au sein du département Laboratoire (Laboratoire accès et qualités des
données) LAQ et plus précieusement au sein de l'équipe DATAPEDIA
opérant pour le Projet B4ALL et garantissant la mise en place des services
garantissant l'activité de Cartographie métadonnées et glossaire de Business
d'ENEDIS.
Participation aux différentes Taches :
Gestion et supervision de la cartographie globale
Gestion et supervision du business Glossary fonctionnel: mise à jour , collecte
des informations relatives aux thématiques , sous thématiques , domaines ,
sous domaines , attributs métiers et objets métiers.
Ingestion des données relatives au glossaire de Business dans Informatica
Business Glossary .
Gestion et supervision de la Méta data Technique : collecte des différentes
métadonnées des différentes applications composant le SI .
Ingestion des métadonnées techniques dans Informatica Métadata Manager
Réconciliation Fonctionnelle technique( mise en place des Assets Links sous
Informatica Business Glossary )
Data Lineage
Participation à un projet de POC de migration vers une nouvelle plateforme
pour les services de métadonnées ouvertes et de gouvernance (OMAG) .
Participation à la proposition d'une architecture micro-services basée sur les
technologies Apache EGERIA , Apache Kafka et Apache Atlas .
Participation à la mise en place des déploiements Kubernetes et des
piepelines Jenkins nécessaires dans le cadre du projet de POC.
Au sein du centre de compétences BIG DATA et plus précieusement au sein
de l'équipe intégrateurs Métier Socle (Agilité) opérant pour des services Métier
garantissant l'activité de Service payement et Global Transactions.
l'intégration des applications du domaine Big Data permettant la Collecte des
données et les différents Use Cases
Répondre aux besoins des projets en mettant en place les socles techniques
( multitude de combinaisons de technologies de socles BIG DATA )
l'automatisation des procédures d'installation et d'exploitation (création et
déploiement des keytabs,arborescences hdfs , groupes ldap,users, Scripts de
transferts , Checks NAgios , job talend , DockerFile , nexus , Jenkins .......)
Orchestration des use cases sous Oozie et Control M for hadoop , Control M
( coordinateurs , Fiche CTRL M ....)
Création,configuration et déploiement des transferts de données via sqoop ,
kafka ,Talend Big Data DI... (sources différentes==> datalalke )
Application de la stratégie d’accès a l'ensemble d'utilisateurs et groupes
(Ldap , group Ldap , splunk Policy ranger==> HDFS , Apache Hive, HBase...).
Participation au Workshops et ateliers au sein de l'équipe intégrateurs
( formations internes et externes sur les technologies BIG DATA) .
Application des normes et recommandations techniques définies dans le cadre
des études des architectes et des éditeurs (sécurité,nomenclature, droits...).
Métrologie et gestion des METADATA ( Consommation Yarn Queue , Esapce
HDFS , hbase , Hcatalog, Metastore HIVE ...).
Mise en place d'un plan de reprise d'activité
Formation métier – Compétences visées :
– Big Data Overview / Métiers Big Data / Gestion de projet Big Data
– Base de données NOSQL
– Ecosystème HADOOP (Architecture Conf/développement)
– Ingestion/scrapping et intégration des données
– Analyse des données (écosystème Spark) / Machine Learning Data Science
– Data visualisation
– Indexation des données (ELK)/(LOGSTAH KIBANA)
– Gouvernance des données Big Data/MDM Archi Fonctionnelle/Life-Cycle
Management
– Management de soi
– Réaliser la restitution dans des projets Big Data
– Projet Fil Rouge
Descriptif de la mission : Groupe Société Générale - Business Solution Center
(RESG/BSC), centre de services partagés, destiné à doter les entités et filières
(Finance, Risques, Ressources Humaines…) du Groupe Société Générale de
solutions informatiques globales.
-gestion de socles techniques pour les environnements Teradata de DEV,
Homologation & Production.(configuration informatica, datasource ODBC,
jdbc,
installation TTU, ouverture de routes, documentation)
-Gestion des dossiers de bases, users, rôles, profil ..., pour les évolutions.
-Rechargement des environnements: Import-export TPT.
-Application des normes Teradata et recommandations techniques définies
dans le cadre des études et par l'exploitation.
-Suivi des maintenances, upgrades et patchs Teradata (évolution, incidents
…)
-Suivi des backup-réplication-restore, restore sur site de secours (PCA).
-Capacity planning (suivi des usages et tendance prévisionnelle)
-Suivi et analyse de métrologie
-Participation à des projets d'optimisation et audit des traitements (Index,
explain plan analyze, Skewing & Statistics, TDWM profile, spool …)
-conseil et support auprès des équipes IT des différentes BU du groupe
(Clients métier, équipes BENGALORE & TMA Sopra MADRID(communication
en Anglais)
sensibilisation aux normes & enjeux des systèmes décisionnels (stagging,
rechargement, alimentation et restitution)
-Transition des compétences On-side (Paris) Off-shore (BENGALORE)
Intervention sur les différentes applications permettant la gestion, le suivi et
la maintenance du Datawarehouse Monoprix (chaine tickets). Gestion des
encaissements magasins.
- Suivi d'exploitation en environnement de Production:
- Vérification du bon déroulement de la chaine Tickets (Jobs et Bteq
chargement des
données)
- Vérification des tableaux de bord de production
- Vérification de la bonne réception des rapports Microstrategy par les
différentes équipes (marketing, gestion de compagne,magasins)
- Administration Datawarehouse :
- Création de Users, rôles, profils, Macro et Procédures Teradata
- transfert de données entre les environnements (développement,
qualification, production)
- gestion de l’espace disque
- supervision Teradata Viewpoint
- Mise en place des alertes automatiques (Espace disk, consommation
Cpu , session bloquées)
- Présentation Comité de Performance Teradata
- Assistance des livraisons en intégration et en production
- Support SQL à la demande
- Taches de Purges de Tables et de mise à jour des calendriers
Datawarehouse
- Mise à niveau des versions TERADATA
- Vérification de sauvegarde et rédaction des demandes de Restore.
- Analyse, correction et redémarrage en cas de plantage ou de non
cohérence des Résultats
- Encaissement DWH et GOLDSHOP
- Vérification des encaissements manquants (magasins manquants)
- pilotage des opérations de restitution d’encaissements manquants
- Vérification des Fichiers encaissements destinés au Datawarehouse et à
GOLDSHOP
- Rédaction des demandes de réintégration des encaissements...