Le data steward s’occupe de la gouvernance et de la gestion des données au sein d’une entreprise, mais aussi de leur intendance ou stewardship. Il est garant de l’organisation et de la qualité de la data, qui sera par la suite interprétée par les data analysts et les data scientists.
Intendant de la donnée, le data steward est le garant de la gestion, de la qualité et de l’organisation des données au sein d’une entreprise. À partir des politiques définies en matière de data, il trie, qualifie et vérifie les données. Son rôle est de s’assurer de la pertinence et de la structuration des espaces de stockage. Enfin, c’est l’interlocuteur stratégique de la donnée : il répond à toutes les questions concernant la data.
Le data steward manipule au quotidien des bases de données et des services de cloud computing (AWS, Google Cloud, Microsoft Azure). Il doit donc parfaitement maîtriser SQL, le langage des bases de données.
Il fait également appel à des langages de programmation, et particulièrement Python. Il peut ainsi développer des scripts ou des programmes de gestion de bases de données. Des outils de reporting tels que Tableau ou des outils de gestion de données comme Talend peuvent aussi entrer en jeu.
Pour travailler efficacement avec l’équipe data et l’ensemble des services de l’entreprise, il utilise enfin des outils collaboratifs tels que Trello, Slack ou Zoom.
En tant qu’interlocuteur clé dans l’entreprise pour les questions relatives à la donnée, le data steward doit faire preuve de compétences techniques solides, mais aussi de qualités humaines :
Pour devenir data steward, une formation de niveau bac + 2 minimum est demandée, avec une spécialité en administration des bases de données.
Toutefois, les cursus de niveau bac + 5 sont valorisés par les recruteurs. Il est ainsi possible de suivre une formation en école d’ingénieurs, en école d’informatique ou un parcours universitaire en informatique de niveau Master, puis d’acquérir des expériences en gestion des bases de données, extraction de données et statistiques.
Le salaire médian d’un data steward en France est d’environ 45 000 € bruts annuels. En sortie d’école, un débutant peut obtenir un salaire de 40 000 € bruts annuels. Pour un profil expérimenté, le salaire brut annuel peut atteindre les 65 000 €.
Deux types de postes sont disponibles pour les data steward :
Les secteurs d’activité qui emploient des data stewards sont variés. On peut citer le domaine public, la santé et la recherche, la finance, les télécommunications, les banques et assurances, le marketing et la publicité, l’industrie, et enfin les entreprises spécialisées dans l’intelligence artificielle et le deep learning.
Le métier de data steward peut être comparé avec les autres métiers du Big Data, tels que :
Le data steward peut également évoluer vers les métiers de data manager ou CDO (Chief Data Officer).
Le data engineer construit l’infrastructure des données. Le data steward, quant à lui, est chargé de la gestion et de la gouvernance des données : leur organisation, leur qualité et leur sécurité.
Il est possible de devenir data steward avec un niveau bac + 2 minimum. Toutefois, les recruteurs valorisent davantage les profils de niveau bac + 5, issus d’une école d’ingénieurs, d’informatique ou d’un parcours universitaire spécialisé de niveau Master.
Le déploiement de l'outil Wedata Data Governance au sein du Group BNP PARISBAS vise à promouvoir la connaissance et l'utilisation efficace des données, améliorer leur qualité, et garantir la confidentialité et la conformité au GDPR.
Mission :
- Responsable de la gestion du Backlog et de la roadmap, en collaboration avec les Product Owners et en réponse aux besoins des stakeholders.
- Accompagnement des clients/utilisateurs dans la mise en œuvre de la stratégie groupe pour le Data Management.
- Proposition et prototypage de solutions fonctionnelles Collibra pour améliorer la compréhension des utilisateurs.
- Traduction des besoins des utilisateurs en cahiers de charges normalisés et animation et participation aux workshops avec les utilisateurs et le centre d'expertise Collibra.
- Suivi de l'implémentation des solutions du centre de compétence.
- Garantie de la qualité du lineage des données en identifiant les sources, propriétaires, transformations, flux et dépendances, avec suivi automatisé en temps réel.
- Responsabilité des User Acceptance Tests (UATs) en coordination avec les utilisateurs.
- Préparation de supports de formation pour les utilisateurs.
- Fourniture d'assistance de niveau 3 aux utilisateurs pour résoudre les problèmes et répondre aux questions.
MVP et KICK-OFF pour le Déploiement de l’outil de gouvernance de données Collibra.
Mission :
- Collecte des besoins commerciaux et spécifications technico-fonctionnelles auprès des utilisateurs et de l'équipe ETL.
- Préparation de Business Requirements Documents et implication dans la conception de processus métier.
- Participation à la planification du Plan général de la plateforme (PMP) et du Plan du Scope, identification des risques majeurs.
- Planification des sprints, suivi et implémentation des user stories dans Jira, mise en place de la structure organisationnelle du Groupe. Linéage des modèles de données, documentation des KPIs et des capacités pour partager l'information.
- Assistance aux utilisateurs lors de démonstrations et création de scénarios de test pour les applications.
Projet:
Construction d'indicateurs pour le suivi des volumes de flux, parcours clients et l'efficacité opérationnelle. Suivi de la qualité de service avec des indicateurs comme le taux de décroché et le traitement des demandes en un seul contact. Migration des applications de QlikView vers Qlik Sense pour une meilleure visualisation et analyse des données.
Mission :
- Responsable de la collecte des besoins et spécifications pour QlikView et Qlik Sense.
- Impliqué dans la conception, développement, tests, publication, maintenance et support des applications.
- Collecter et nettoyer les données , réunir et préparer les données pour l'analyse
- Analyser les données , identifier les tendances, les modèles et les anomalies
- Création de tableaux de bord avec différents objets pour visualiser les données.
- Participation à l'optimisation des performances de Qlik Sense.
- Définition des indicateurs clés de performance (KPI) et analyse des données.
- Assistance aux utilisateurs lors des démonstrations et conversion d'applications QlikView vers Qlik Sense.
- Responsable de la validation des applications selon les normes de conception.
- Participation à la création de scénarios de test pour les utilisateurs finaux..
Projet:
Le déploiement de Wikidata, au sein de la direction Digital, Data & Connectivity Engineering (DDCE), de la Direction de la qualité et de l’ingénierie (DQI) siège au Comité Exécutif, de la direction Global Purchasing and Suppliers Quality (DGPSQ), de la direction Sales and Marketing, de la direction Spare Parts (DSP) et de la Banque PSA.
Mission :
- Pilotage et accompagnement à l'alimentation du catalogue de données en coordination avec les experts métiers et IT. Participation à des ateliers pour structurer le modèle socle, les vues, filtres et Dashboard.
- Collaboration avec l'IT pour la synchronisation technique de Collibra avec les sources de données telles qu'Oracle, Excel, Hadoop, GCP.
- Préparation des vagues de déploiement suivantes en recueillant les besoins métiers, établissant les priorités et la charge prévisionnelle.
- Accompagnement à la mise en œuvre des processus de gouvernance des données, diffusion des règles et standards d'utilisation, formation des profils data et suivi régulier du catalogue. Identification des cas d'usages potentiels et proposition d'améliorations à la gouvernance centrale.
Le déploiement de Wikidata, au sein de la direction Digital, Data & Connectivity Engineering (DDCE), de la Direction de la qualité et de l’ingénierie (DQI) siège au Comité Exécutif, de la direction Global Purchasing and Suppliers Quality (DGPSQ), de la direction Sales and Marketing, de la direction Spare Parts (DSP) et de la Banque PSA.
TACHES RÉALISÉES :
Pilotage et accompagnement à l’alimentation du catalogue de données en coordination avec les experts métiers et IT. Selon la vague, Présentation du produit et ses fonctionnalités, Recueil des besoins, Structuration détaillée du modèle socle, Structuration des éléments organisationnels, Structuration des vues, filtres et Dashboard, Structuration des vues, filtres et Dashboard, recueil des besoins en workflows et identification du gap entre les workflows standards et les besoins. Tout cela au cours d’ateliers qui ont abouti à des livrables.
Participation à la synchronisation (ingestion) technique de Collibra avec les sources de données des Vagues en collaboration avec l’IT. Les sources : Oracle, Excel, Hadoop (HDFS, Hive, csv, parquet, JSON) via le module Atlas, GCP : Développement d'un flux Collibra Connect afin de récupérer la liste des projets, tables, colonnes avec l’équipe collibra.
Préparation des vagues de déploiement suivantes : recueil des besoins métiers et priorités Data Factory, planning et charge prévisionnels
Accompagnement à la mise en œuvre des processus de gouvernance des données définis en collaboration avec l’IT. Définition du process d’intégration de collibra de la création à la consommation des données à partir d’un uses cases à valider ->Braincube.
Diffusion aux Data Manager et Data Steward les règles et standards d’utilisation des données
Formation à Collibra des différents profils data : Data Manager, Data Steward, Data Owner, Architectes fonctionnels.
Garantir que le catalogue de données soit mis à jour régulièrement et exposer les bénéfices de son utilisation
Définition des règles d’évaluation de la qualité des données, la mesurer et partager les indicateurs dans .
Le Groupe a retenu une solution de pilotage à froid transverse (Infomart), aussi bien sur les CRC que les agences et les back-offices. Elle offre une cohérence et une continuité de pilotage sans rupture dans l’entreprise
La construction des indicateurs sur :
• Le suivi et les volumes de flux, quel que soit le média (téléphone entrants sortants, mails, chat, web callback…) et le canal (téléphone, mail, tchat, …),
• Les parcours clients (suivi des transferts, suivi du routage et de la prise en charge, nature de la demande…),
• L’efficacité opérationnelle (nombre d’appels traités par une structure / un agent),
• La qualité de service (taux de décroché, traitement d’une demande en un seul contact…
Migration des applications de Qlikview vers Qlik sense
TACHES RÉALISÉES :
Responsable de la collecte des besoins commerciaux et des spécifications technico-fonctionnelles auprès des utilisateurs et l’équipe ETL.
Implication dans la conception, le développement, les tests, la publication, la maintenance et le support des applications QlikView et Qlik Sense.
Développement des QVDs, QVWs, QVFs en utilisant des systèmes sources comme Oracle, SQL Server, des fichiers Excel, Sales Force.
Planification des sprints, implémentation et suivi des users stories dans jira
Création de tableaux de bord QlikView et Qlik Sense à l'aide de différents objets
Participation à l'optimisation des performances des applications Qlik Sense pour un rechargement plus rapide des données et des temps de réponse efficaces.
Participation à l'analyse des données et à la définition des indicateurs clés de performance (KPI).
Assistance aux utilisateurs lors de sessions de démonstration de l'utilisation de QlikView et Qlik Sense et conversion des applications QlikView en Qlik Sense.
Création de spécifications techniques détaillées, d'exigences commerciales et de documents de rapports de tests unitaires.
Responsable de la validation des applications développées par rapport aux normes de conception prédéfinies.
Participation à la création de scénarios de test pour les utilisateurs finaux afin de tester les applications.