Freelance: Full Remote
OPCO EP est un opérateur de compétences interbranches qui a été créé suite à l'adoption de la Loi pour la liberté de choisir son avenir professionnel en avril 2019.
L'OPCO EP aide les entreprises et les salariés à s'adapter aux évolutions économiques et techniques de leurs branches professionnelles et ce à travers la formation continue. L’OPCO EP regroupe plus de 3.5 millions de salariés et 400 000 entreprises.
Tâches :
• Analyse des besoins puis des données et échange avec le métier pour la validation finale des specs;
• Reprise, conception et développement de nouvelles interfaces de jobs ingestion, diffusion et de stream processing ;
• Optimisation des jobs et leur mise à jour dans GitLab ;
• Rédaction de documentations techniques des jobs développés
• Rédaction de documentation pour le déploiement en Production
• Tests en Recette, Mise en Pré Production et en Production ;
Mission ponctuelle destinée à auditer la stratégie d’intégration de données dans le SI ; à définir et à mettre en œuvre une campagne d’optimisation des performances des traitements de données ;
Tâches :
• Étude de l’existant et analyse de l’architecture Data ;
• Analyses des données et des besoins et validation des Specs avec le métier ;
• Cartographie du SI ;
• Reprise et optimisation de flux ;
• Conception et développement de nouvelles interfaces ;
• Reprise et optimisation de Web services avec les services Bus ;
• Rédaction de documentations techniques
Réalisation d’un POC autour des solutions Talend et de la base de données Snowflake
Pour réaliser ce POC, de nombreux outils ont été utilisés ainsi que la plateforme Talend qui constitue le
cœur du flux de données de bout en bout. Le POC consistait à alimenter une base staging, puis un
datawarehouse et des datamarts autour d’un environnement de pointe basé sur le cloud s’appuyant sur
AWS, S3, le tout se basant sur un document de spécification fonctionnelle détaillée (SFD).
Les principales caractéristiques de l’algorithme pour la génération des fichiers de sortie vers S3 sont les
suivantes :
- identifier le(s) fichier(s) à générer dans le cadre de l'exécution actuelle du job.
- extraire pour chaque fichier, les données sources et générer les fichiers de sortie avec ou
sans en-entête.
- copier chaque fichier généré dans le bac S3 cible.
Le POC s’appuie sur un fichier json servant de fichier de configuration.
• Analyse du fichier json et paramétrage des informations servant de context.
• Développement du job générique et automatisation des tâches en tenant compte des règles de gestion
du fichier SFD.
• Gestion et logue des erreurs, optimisation du framework
Activités : Vadis est une société de service travaillant avec des fournisseurs de données financières et
compliance couvrant un périmètre mondial et en les combinant avec les données des entreprises pour
délivrer des indicateurs de risque et informations pertinentes, utilisés dans un large champ
d’applications, comme la chaîne logistique, l’approvisionnement, la finance, la conformité aux
régulations, la fraude et les institutions publiques.
Vadis transforme les données publiques et privées en informations et actions, en utilisant l’intelligence
artificielle pour permettre à ses clients d’avoir une meilleure connaissance de leurs interlocuteurs et de
se conformer aux régulations.
Enfin, Vadis enrichit les données financières et non-financières complexes pour offrir des indicateurs de
risque et une gestion des risques de tiers.
Objectifs :
Audit global des jobs Talend
Conseils sur les bonnes pratiques de développement.
Gestion des colonnes dynamiques
Optimisation du framework
Développement et automatisation de tâches complexes
Tâches :
• Développement de jobs avec l’ETL Talend et chargement des données depuis la source (bases de
données et / ou des fichiers) pour alimenter les bases cibles, puis contrôle des données et correction de
bugs.
• Tests en environnement de développement et de recette en local et TAC sur Windows et Linux
• Participation à des réunions de suivi de projet et Scrum
• Rédaction de la documentation des jobs développés
• Production de livrables : packages Talend et scripts de base de données
• Rédaction de documentation pour le déploiement en Production
Activités du groupe : Le groupe Air Liquide est le leader mondial des gaz, technologies et services pour
l'industrie et la santé
Objectif du projet : refonte du projet Darwin
Il s’agit de redévelopper le projet existant avec de nouvelles fonctionnalités
L'objectif du nouveau projet est aussi d’alimenter différentes cibles (bases de données, Azure Blob, Aws)
à partir de différentes sources (feuilles Google, fichiers csv, données bases de données) contenant des
colonnes dynamiques.
Il s’agit également d’optimiser le nouveau framework.
Objectifs atteints :
Les colonnes dynamiques ont été correctement gérées
L’optimisation a permis de charger le nouveau framework à seulement 1/3 de l’ancien framework
Taches réalisées :
• Développement des jobs avec l’ETL Talend pour alimenter les bases de données cibles
• Développement avec Talend ETL pour charger les bases de données cibles
• Chargement de la source (à partir de bases de données et / ou de fichiers) pour alimenter des bases de
données cibles, Azure Blob, Aws, puis contrôle des données et correction
• Production de la livraison : packages Talend et scripts de base de données pour la version de production
• Tests en environnement de développement et de recette : tests en local et sur la TAC de Talend
• Rédaction de la documentation pour le déploiement en production
• Prise en compte des corrections de bugs détectées en production et des évolutions depuis l'interface
azure devops
• Participation à des réunions de suivi de projet et de méthode Agile
Activités du groupe :
La Banque postale propose diverses solutions de financement dans tous les domaines bancaires ou assurances : banque de détail, crédits immobiliers, prêts à la consommation et financement participatif, assurances-dommages, santé ou prévoyance, gestion d’actifs.
Objectifs visés :
Le projet vise à créer une Base Consolidée des Risques (BCR) conçue en datamart qui permette de
collecter, de centraliser et de consolider l’ensemble des encours de l’actif et du passif du Groupe La
Banque Postale sur le périmètre des activités banque commerciale pour personnes physiques et
personnes morales et banque de marché puis de les mettre à disposition du progiciel RiskAuthority
(RAY) pour la production des reportings internes et réglementaires sur les périmètres Solvabilité et
Liquidité.
Ce datamart a pour rôle d’alimenter les moteurs de liquidité et de solvabilité chargés de calculer les ratios concernés par la règlementation Bâle III.
L’enjeu pour la Banque postale est de pouvoir :
• Disposer d’une base unique de données sur l’actif et le passif,
• Produire des reporting réglementaires et des reportings internes,
• Disposer de données cadrées avec la comptabilité,
• Disposer de données de qualité.
Tâches réalisées :
Domaine Développement / Talend / Business Objects
• Recueil des besoins auprès de la MOA et validation des spécifications auprès d’eux.
• Analyse des bases et fichiers source
• Rédaction des fiches d’industrialisation
• Rédaction des DT des flux
• Développement des procédures PL/SQL et des jobs d’alimentation avec l’ETL Talend pour alimenter la base cible.
• Chargement des données sources (bases de données et/ou fichiers) pour alimenter le Datamart, contrôle des données puis correction
• Fabrication des bordereaux de livraison : Packages Talend, Scripts de base de données, fichiers CTL
• Mise à jour de l’univers, développement de nouveaux rapports BO et leur maintenance
• Tests en environnement de Développement et de Recette en local et sur la TAC de Talend
• Prise en compte des corrections et des évolutions depuis l’interface Redmine
• Échange avec les équipes d’exploitation pour les mises en production
• Participation aux réunions pour le suivi projet et méthode Agile
Freelance
Activités de Archos :
ARCHOS est une entreprise internationale, leader dans l’électronique Grand Public, reconnue pour sa
capacité à innover.
ARCHOS est présente sur le marché des smartphones, des tablettes, des objets connectés et des crypto-
monnaies
Enjeux et objectifs
• Alimentation des cubes à partir des flux sources : fichiers sources externes et bases de données
sources
• Mise à disposition des données aux utilisateurs sur Excel via Add In
• Développement, modélisation et optimisation des cubes
Tâches réalisées :
Domaine Développement / SEI
• Recueil des besoins auprès des utilisateurs.
• Analyse des bases source et fichiers sources externes
• Rédaction des spécifications techniques des flux source / cible
• Création des cubes Olap Manager avec Sage SEI
• Création des Process, Reports et Dashboards, Scheduling des cubes, des reports
• Chargement des données des cubes, contrôle des données puis correction
• Tests en environnement de Développement
• Mise à disposition des données des cubes sur Add In Excel pour les utilisateurs.
• Rédaction des documentations pour le déploiement en Production des cubes
• Mise en Production des cubes développés
• Développement des correctifs d’anomalies détectées en Production.
• Formation des utilisateurs
• Livrables : Spécifications, Documentations pour le déploiement en Production, Cubes Olap, Scripts SQL.
Freelance
Mission 1 : Mise en relation entre Producteurs, Importateurs, Exportateurs de noix de cajou, des produits alimentaires
Délégué par des producteurs, importateurs et exportateurs de noix de cajou au Sénégal et en Guinée Bissau et par des hommes d’affaires locaux.
Il s’agit de rechercher puis de mettre en relation des producteurs locaux et des clients au niveau international pour l’achat des noix de cajou, de trader sur les produits alimentaires (lait, riz, huile, poivre …) pour les mettre à disposition des importateurs au Sénégal et en Guinée Bissau.
Mission 2 : Installation de la solution GED "Open Bee" et Prospection clientèle au Sénégal
• Installation de la solution Open Bee à la Direction de la Dette Publique à Dakar puis formation des utilisateurs.
• Prospection et Démo auprès d’autres clients locaux pour l’achat de cette solution.
Activités de Primonial : Primonial est leader dans la gestion patrimoniale auprès des particuliers en
France.
Ses activités sont : Assurance vie et capitalisation, immobilier direct et collectif, solutions financières et
asset management.
Le groupe sélectionne des solutions financières sur le marché, afin de proposer une gamme complète
et ouverte sur les grandes maisons : entreprises d’assurances, sociétés de gestion immobilière ou
financière.
Enjeux et objectifs
• Alimentation de bases cibles Staging et DWH avec plusieurs flux en source : fichiers et bases de
données
• Développement de flux Talend pour alimentation de la base cible + optimisation
Tâches réalisées :
Domaine Développement / Talend
• Recueil des besoins auprès du métier et validation des spécifications auprès d’eux
• Analyse des bases et fichiers source
• Modélisation des bases de données cible avec les flux source
• Rédaction des spécifications fonctionnelles et techniques des flux source / cible
• Développement de jobs avec l’ETL Talend pour alimentation Base Staging et DWH et leur optimisation
• Chargement des données de bases ou fichiers source pour alimenter la base cible SAS, contrôle des
données puis correction
• Fabrication des bordereaux de livraison : packages Talend et scripts de base de données pour la mise
en production
• Tests en environnement de Développement et de Recette en local et sur la TAC
• Rédaction des documentations pour le déploiement en Production de chaque flux
• Développement des correctifs d’anomalies détectées en recette
• Transfert de connaissances des consultants en interne
• Participation aux réunions pour le suivi projet et méthode Agile
Freelance: Full Remote
C'est suite à la crise de 2008 que le Groupe BPCE (Banque Populaire-Caisse d'Épargne) a été créé.
Filiale d’assurance non-vie du Groupe BPCE, BPCE Assurances propose des offres d'assurance auto, d’assurance habitation, de garantie des accidents de la vie, de santé, de protection juridique, des services parabancaires, des offres de protection de l’activité professionnelle ainsi que des offres de prévoyance pour les professionnels.
Enjeux et objectifs : Migration de Talend DI 6.4 vers Talend DI 7.3, Evolutions et Corrections
Tâches :
Domaine Développement / Talend
• Analyse des besoins puis des données et échange avec le métier pour la validation finale des Specs;
• Reprise, conception et développement de nouvelles interfaces de jobs et leur publication dans la TAC et dans Git ;
• Analyse des bases et fichiers source ;
• Développement des jobs d’alimentation avec l’ETL Talend pour alimenter les interfaces cibles ;
• Chargement des données sources (bases de données et/ou fichiers), contrôle des données puis correction ;
• Migration des jobs de Talend DI 6.4 vers Talend DI 7.3 et leur adaptation dans Talend DI 7.3
• Mise en place des plans d’exécution des jobs dans la TAC et dans VTOM
• Prise en compte des corrections et des évolutions créées par le métier depuis l’interface Jira ;
• Rédaction de documentations techniques des jobs développés ;
• Tests unitaires, en Recette, Mise en Pré Production et en Production ;
• Fabrication des bordereaux de livraison : Packages Talend, Scripts de base de données, fichiers fmt ;
• Publication des documents dans Confluence
• Suivi de production ;
• Participation aux réunions pour le suivi projet et méthode Agile ;