Sujet:
Conception et développement des jobs d’alimentation de l’infocentre
pénitentiaire pour la gestion et l’historisation des situations
pénitentiaires et pénales journalières des écrous
Architecture des solutions techniques BI (Datawarehouse,Datamarts…)
et gestion de la sécurité des rapports et des données.
Optimisation des flux ETL BODS
Mission :
- Assistance à la MOA pour l’évaluation des coûts, Analyse, conception et
rédaction des Spécifications techniques détaillées
- Conception et développement des jobs d’alimentation de l’infocentre pénitentiaire
- Optimisation, alimentation et historisation des Datawarehouses.
Sujet:
Gestion et maintenance du Stream Client Order BI de DASSAULT
SYSTEMES (50ETL JOB, 30 univers et plus de 200 rapports BO)
équipe de 6 personnes.
Gestion et maintenance du Stream DSONE BI de DASSAULT
SYSTEMES – Référentiel client (10ETL JOB, 3 univers et plus de 400
rapports BO) équipe de 3 personnes.
Architecture des solutions techniques BI (Datawarehouse,
Datamarts…) et gestion de la sécurité des rapports et des données.
Optimisation des flux ETL
Mise en place des normes de développements.
Mission :
- Chiffrage et planning des différents besoins des utilisateurs (une mise en Prod
par mois)
- Assistance à la MOA pour l’évaluation des coûts, Analyse, conception et
rédaction des Spécifications techniques détaillées
- Suivi des développements, validation et qualification des livrables
- Effectuer les mises en production et le déploiement (1 fois par mois)
- Gestion des dépendances entre Client Order et les autres streams : Sales,
Finance, Marketing, R&D…
- Optimisation, alimentation et historisation des Datawarehouses..
Création et alimentation d'un Datamart Dans le cadre du Projet "Store" (Vente en ligne des produits Dassault Systèmes) alimentant les Systèmes commerciaux avec les données produits et Marketing.
Conception et développement d'un JOB BODS Daily générant des fichiers XML Delta pour la détection journalière des changements au niveau du référentiel produit.
Développement et optimisation d’un datamart du service Marketing pour le suivi des leads et opportunities à partir des données sources Neolane et Sibel-On-Demande
Optimisation des Job ETL de l’application OCR ‘One company Revenu’ pour le service Finance
Optimisation des Flux ETL et développement des rapports et Widgets pour le Service Client Order
Projet EMD : développement d’un job ETL à partir d’une base de données de la société dun& bradstreet avec 20 millions de clients. Faire des analyses pour calculer le taux de pénétration et de couverture au sein d’une population d’entreprises et sur différents axes : industrie, zone géo, taille d’entreprise et déduire les entreprises adressables à partir des entreprises adressées
Mission :
Rédaction des spécifications fonctionnelles et techniques..
Optimisation, alimentation et historisation des Datawarehouses.
Sujet:
Réalisation d’un audit sur l’alimentation des Datawarehouses du département BI Finance.
Optimisation des différents jobs d’alimentation jusqu'à 50% de moins sur le temps de chargement au niveau des bases ODS et DWH.
Conception et développement des rapports BO pour la finance: gestion de ressources, des Timesheets et des projets Dassault Systems en cours.
Refonte de l’administration et la gestion des habilitations BO.
Mission :
Rédaction des spécifications fonctionnelles et techniques.
Conception et développement des univers BO.
Optimisation, alimentation et historisation des Datawarehouses.
Conception et Restitution des rapports BO.
Sujet:
Conception et développement d’un Datawarehouse Greenwech pour la gestion des réservations, de stock et de budget en consolidant les deux systèmes de Résa Pierre&Vacances et Center Parc
Développement d’un Job journalier pour l’alimentation d’une base de clients P&V débiteurs et transfert automatisé des données à l’huissier de justice.
Développement d’un Job bimensuel pour le département E-COM afin de confirmer ou rejeter le versement et le montant de commissions des plateformes d’affiliation pour chaque réservation.
Mission :
Rédaction des spécifications fonctionnelles et techniques.
Conception du Datawarehouse.
Alimentation et historisation du Datawarehouse.
Conception et Restitution des rapports BO.
Sujet:
Conception et développement d’un Datawarehouse KPILOG pour le département logistique de Geodis à partir de cinq WMS : Mise en place d’un système de reporting (200 KPIs) pour le suivi en temps réel des activités, de la productivité et la performance de l’ensemble des entrepôts Geodis.
Optimisation et refonte des projets ROLF(Comptabilité) et JAIPUR (Direction des achats) suite à la mise en place par Geodis d’un nouveau system comptable Dynamics AX.
Mission :
Rédaction des spécifications fonctionnelles et techniques.
Conception du Datawarehouse
Alimentation des cinq DataStores correspondants aux cinq WMS
Alimentation du Datamart KPILOG à partir de cinq DataStores.
Sujet: Optimisation et stabilisation de l’ensemble des flux d’alimentations de la
DWH et des différents Datamarts pour la gestion financière et
Le pilotage opérationnel des différents services et sociétés de Randstad.
Mission :
Projet de stabilisation
Optimisation de l’existant
Harmonisation des différents référentiels
Maintenance des différents projets de Randstad
Sujet: Conception et développement de l’infocentre APPI
(Application de peine, Approbation et insertion).
Mission :
Rédaction des spécifications fonctionnelles et techniques.
Encadrement de l’équipe de développement et gestion de projet depuis la rédaction des spécifications détaillées (Restitutions, univers et modèles de données, Datawarehouse, Alimentation et gestion des habilitations), la réalisation, l’intégration et les recettes.
Chiffrage et rédaction des DEP (Demandes d’études préalables) pour les évolutions de l’infocentre APPI.
Sujet: Développement du système de gestion financière et de ressources de
Capgemini monde (GLOBAL FINANCIAL SYSTEM).
Mission :
Maintenir les développements de l'ETL pour l'alimentation des bases de dev et de prod du système global de gestion financière de Capgemini.
Développement des évolutions avec DataIntegrator.
Sujet: SDIN Système d’information nucléaire :
Projet de Migration de données pour EDF. Dans le cadre du SDIN (Système D'Information du Nucléaire), l'ensemble des applications de maintenance des centrales nucléaires française est remplacé par un nouveau SI basé sur le progiciel Asset Suite de Ventyx. L'équipe Migration a pour but de réaliser la migration des données depuis l'ensemble des systèmes sources (30) vers le système cible. La migration en cours concerne le site de Blayais, les modèles de standardisation et les fonds d'ingénierie nationaux.
Mission :
Développement Informatica / UNIX / ORACLE - Réaliser les spécifications techniques, les développements et les tests unitaires des traitements de migration de données du SDIN Environnement :
Informatica, UNIX-AIX, Oracle, Asset Suite (Ventyx), Systèmes hétérogènes en source.