Contexte : Travaille sur les voitures connectées pour faire des supports( Incidents , demande
d’accès , Analyse de graphe( suite monitoring d’alerte d’incidents sur Grafana), faire la campagne
des véhicules , ).
Les tâches :
- Analyser les incidents (K1, K2, K3) sur Snow et grafana
- Gestion de la prod et des incidents
- Faire des supports Postmortems des incidents K1 et K2
- Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman(Redbend)
- Campaign sur des véhicules
- Renouvellement de certificat Awazu.
- Analyse des graphes sur grafana rédiger les postmortems
- Monitoring pour les suivis des incidents
- Etude Talend connectivités avec les bases de données sql et No-Sql
- Azure Synapse , Synapse Analytique (réaliser les Activités)
Contexte : Dans le cadre de la modernisation d’architecture C2SO Data Warehouse, les entités
Diamond, Marine,…
La conception d’une base de données objet( S3) où ETL Talend va déposer les données brutes ,
on utilise ESB Amazon Web service , Dataiku pour générer les rapports , et d’autres ETl de
visualisation (tableau , Power BI ) , et la Mise en place d’un Data Management (MDM)
Mission :
❑ Cadrage du projet avec les les métiers et chef du projet( spécifications techniques et
❑ fonctionnelles )
❑ Plannings, des budgets, des ressources avec les métiers
❑ Modernisation des différentes entités avec Togaf , powerDesigner
❑ Conception de la base de stockage objet S3
❑ Extraction des données dans les différentes sources
Marine, Diamond ….. (Données CRM)
❑ Conception de la base de données PostgreSQL
❑ Conception de Data Warehouse pour le modèle
❑ Crée du Dashboard dans Power BI pour générer des rapports format web avec
❑ pilotage, reporting, automatisation des tests, déploiements, gestion de la
❑ Prod et des incidents .
Power Bi service et d’autre format.
❑ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
Tableau connexion indirecte (copié les données depuis les sources de
Données) pour la visualisation des données
❑ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
Annuel
❑ Générer des rapports avec au format web avec power Bi service
Contexte :
Projet : Migration et Automatiser le flux de données sur Google Cloud( GCP). Migration
des données de Datalake pour le cloud (Gcp) avec des outils NIFI, PostgreSQL, Requête
SQL, Requête avancée pour supprimer les sauts de page des flux des données dans le
cloud.
Mission
❑ Audit de l'existant
❑ Rédaction des spécifications fonctionnelles détaillées
❑ Définition du Mapping de données
❑ Préparation des données (nettoyage, restructuration, mise en forme .....etc.)
❑ Optimisation des processus métier
❑ Extraction des données avec NIFI à partir data hub et chargement dans
GoogleCloud (GCP)
Apache Nifi ( Automatiser les flux d’information entre les systèmes)
Préparer les PutFile et GenerateFlowFile avec les FlowFile
❑ Modélisation (Etoile, flocon, les processus métier )
❑ Conception des datamarts
❑ Chargement des fichiers pats (parquet, Avro ,JSON ,Csv, Xml )
❑ Transformation des données et chargement des tables finales
❑ Analyse des logs d'erreurs de la migration
❑ Traitement des rejets
❑ Requête SQL Avancée (suppression des sauts de page)
❑ Test unitaire
❑ Faire le Reporting avec le Power BI Desktop
❑ Format des document web avec Power BI Desktop
❑ Rédaction manuelle d’utilisation pour les métiers
Contexte :
Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform(GCP) Big
Data (Cloud Google platefrm ).
Mission
❑ Cadrage du projet sur les spécifications Techniques
❑ Étude de l'existant
❑ Modélisation des processus métiers ( BPNM)
❑ Rédaction des dossiers techniques (mapping des données)
❑ Installation des technique (de pipeline )
❑ Création de session spark (python , Spark)
❑ Platform cloud data Databricks
❑ Dataflows ( kafka , Spark )
❑ Extraction, traitement et exposition des données de l'Open Data
❑ Production de KPI à destination des commerciaux
❑ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
INSEE
❑ Présentation des résultats dans des tables Hive server Rédaction du manuel
utilisateur
❑ Maintenance corrective et évolutive
Contexte :
Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
l'analysedes cas d'usages .
Mission
❑ Modélisation du Data Warehouse (Entrepôt des données) Finance
❑ Modélisation de l'architecture fonctionnelle & logicielle du Data Lake
❑ Analyse Business
❑ Modélisation de la base de données Finance de marché & Compliance
❑ Organisation & coordination des meetings
❑ Rédaction des User stories, maintenir le Backlog
❑ Cadrage du projet
❑ Mettre des plans pour lutter contre les risques (Fraudes)
❑ Automatisation des flux de données (CI /CD)
❑ Script SQL
❑ Génération des rapports
❑ Développement des flux d'intégration des données via SSIS
❑ Reporting, création des tableaux de bords via Power BI & Tableau
❑ Assistant du Product Owner
❑ Gestion des bases de données, index, schémas sur SSMS
Contexte :
Projet : Réalisation technique d'une plateforme de gestion des données relatives aux
besoins marketing.
Mission
❑ Extraction des données dans Teradata
❑ Transformation des données
❑ Création de Datamart
❑ Export des flux d'informations
❑ Industrialisation et automatisation du flux d'extraction des données
❑ Master Data Management Travaux réalisés - Production des ETL pour des ciblages
fcommerciaux
❑ Connexion simultanée à Hadoop et Teradata via SPPS ou Talend
❑ Traitement des données non structurées via Hive, Impala
❑ Gestion des fichiers dans HDFS
❑ Croisement des données via Spss ou Talend
❑ C...
LeadContexte :
Projet :Migration Teradata à GCP, Kenobi (Accort team) , c'est de migrer les données (télécom,
banque) de la base de données Teradata vers Google cloud plateforme (GCP) et mettre en
place un outil pour le retour desdonnées dans teradata pour permettre aux métiers de gérer
les clients.
Missions
❑ Cadrage du projet et choix technologies
❑ Réunion avec les métiers pour la spécification fonctionnelle et technique
❑ Crée le Projet dans l'espace de travail BigQuery (Cloud Storage)
❑ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
❑ Crée DataSet et tables pour stockage des nouvelles données
❑ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
❑ Extraction des données dans teradata (DDL)
❑ Convertir les données de teradata en Script_BigQuery
❑ Préparer les dags (Airflow) dag extraction et dag Load :,
❑ Préparer le fichier Json (pour les tables)
❑ Création des dags d'Extraction avec les tables ddl de teradata
❑ Copier les tables dans FireStore avec leurs paramètres
❑ Lancer le code python du dags d'extraction des données de teradata
❑ Lancer dags load des données dans cloud Storage
❑ Vérification des logs en cas d'erreur de migration des données
❑ Transfer des données fichiers Json vers gcp
❑ Régler les problèmes de formation
❑ Mise en place du Pipeline de Jenkins
❑ Rédiger des rapports avec Dax (Power Bi) et Data Studio