But: Scrum master pour les équipes responsables des outils de trading, de gestion de
portefeuille et gestion du risque suivant les pratiques agile et Scrum
Lève les bloquants et fluidifie les intéractions entre les équipes TN et ligne
d’affaire
Contribue à la transformation agile de la CDPQ
Machine Learning engineer, Montréal 2017 - aujourd’hui
But : Passionné d‘algotrading, je construis et automatise des systèmes de trading
avec des crypto monnaies et des ETF
Entre 2017 et 2021:
Backtesting python/pandas ou avec framework backtrader. Exemple: GitHub
Collecte de données (OHLCV, trades, orders, limit order book) depuis
plusieurs brokers comme Interactive Brokers, Poloniex, Kraken, Bitfinex et
Binance avec REST API et Websockets
Pipeline et transformation des données pour une base de données de qualité
dans base NoSQL mongodb puis PostgreSQL (timescaledb)
Construit des signaux à base d’indicateurs comme SMA, EMA, RSI, Bollinger
Band, MACD, volatilite, volume, Point Pivot, Fibonacci, Limit Order Book pour
des stratégies de suivi de tendance et de break out: demo
Développe un moteur d’exécution avec ordres MKT, LMT, SL, TP, OCO, etc
Rétro ingenieurie de l’outil Relative Rotation Graph de Julius de Kempenaer
pour voir des cycles dans les cryptos: demo
Développe un système de queue avec rabbitMQ pour interagir avec les
stratégies en cours d’exécution; un système de mutithreading pour exécuter
les stratégies de facon concurrente; des notifications et du monitoring
En 2021:
Rejoint une équipe de 2 scientifiques de données et 1 ingénieur cloud pour
construire une solution automatisée de trading sur Binance à partir d’un
modele de machine learning pour identifier les «breakouts» et «pumps»
La solution de trading a été déployée sur Google Cloud et a généré 400% de
profits. Faute de temps le projet a été arreté.
Depuis 2022, applique le nano degree d’Udacity AI for Trading:
Migration de mes solutions vers infonuagique Google Cloud Platform: demo
Recherche de facteurs de risque et d’alphas à partir d’indicateurs historique
et de NLP sur des bilans 10-k pour les stocks
Optimisation avancée du portefeuille à partir de modèle de risque et d’alphas
En tant que consultant et employé d’agileDSS, je remplis les roles de Scrum Master,
Coach Agile et Chef de Projet dans des mandats Big Data et Analytique chez
Industrielle Alliance, metro, Desjardins et Air Canada (voir ci dessous):
Dans le programme Kilo d‘Air Canada, j’accompagne au quotidien et comme
Scrum Master 3 équipes:
Reporting (173 rapports et insights d’Air Canada refondus sur Power
BI)
Data Migration&ML (alimenter en données et construire les modèles
prédictifs en Machine Learning: occupation des vols, yield
management)
Finance & Compliance (collecte les données des systèmes
transactionnels, transforme et achemine les données vers les DM du
socle GOLD source des rapports)
Aide les Product Owner et la Project Manager à identifier les chemins
critiques des livrables selon la mise à disposition des données afin de
planifier les releases et prioriser les activités des équipes suivant des
dépendances business, data (ie. Migration des donnees dans le datalake
en retard ou incomplete, data modélisation plus compliquée, Data Model Gold
en retard) et/ou techniques (ie. retard de la mise à disposition ou upgrade
d’un composant Azure, arrivée de Snowflake, faille de sécurité, probleme de
charge ou performance, etc)
Gère les points de blocages techniques et déploiement avec l’équipe DevOps
et aussi les points de contentieux dans la communication inter équipes
Coordonne les dépendances entre les équipes Data Engineering fournisseur
de données et Insights & ML consommatrice des données
Construit les rapports pour le comité programme et remonte les risques
Anime et coordonne les Scrum of Scrum avec les 9 équipes du programme
afin de communiquer les statuts, dépendances entre les équipes et priorité du
Sprint
Participe aux PI Planning et alimente les backlog Produit avec 3 à 6 mois de
visibilité pour le programme
• Construit et produit les états réglementaires QRT de Solvabilité 2
• Coordonne les travaux avec les équipes Actif et Passif et Comptable de 8 mutuelles
• Implémente la solution dans Moody’s Risk Integrity
• Construit une architecture big data avec un ferme de CPU, MPI, Spark, MongoDB
• Collecte, nettoie et prépare des données du broker avec Python et pandas dataframe
• Recherche et conçoit différentes stratégies pour day trading avec régression linéaire (ie. Pair trading)
• Backteste et optimise plusieurs stratégies
• Implémente live trading pour les meilleures stratégies
• Dashboard et monitoring avec NodeJs
• SCRUM Master et Chef de projet pour les équipes situées en France et Inde : 25 personnes
• Business analyste pour plusieurs projets de migration du Loyalty Management System des companies aériennes
• Conçoit et réalise un produit innovant pour améliorer la qualité des données et augmenter le ROI avec des recommandations et meilleur profilage dans les cartes Frequent Flyer :1er Concours Régional et top 6 sur 30 participants au niveau Européen
• Forme les business analysts, développeurs et product managers
Implémentation de Solvency II (European Insurance regulation)
• Gère projet et équipe de 15 personnes développeur Java pour construire le système décisionnel nécessaire à Solvabilité 2
• Spécifie le Data Model basé sur les pré requis réglementaires les sources de données
• Analyse la réglementation afin de spécifier la solution
• Gère les relations avec CFO, CRO et chefs d’équipes actuariels, comptable, actif
Implémentation de Solvency II (European Insurance regulation)
• Etude préalable et cadrage projet
• Analyse de la réglementation S2
• Gère un budget >€5 million, le projet et une équipe (5 business analystes)
• Supervise les projets et équipes
• Coordonne près de 50 personnes (informatique, actuariat) dans 5 pays
• Gère les relations avec CFO, CRO et chefs d’équipes actuariels, comptable, actif
• Gère les changements :
• Conçoit de nouvelles organisations, workflows et processus pour la collecte et préparation des données, consolidation des résultats des calculs, mise à disposition pour validation des états réglementaires
• Forme les actuaires de 5 filiales (Italie, Belgique, UK, Espagne, France)
1/ Business Intelligence (ETL, datawarehouse, spécs rédaction)
• Spécifie le Data Model basé sur les pré requis réglementaires et les sources de données
• Analyse et conçoit les flux ETL
• Coordonne les travaux de construction du data model avec Moody’s (ex. Fermat)
2/ Ferme de calcul actuariel
• Coordonne les changements d’architecture des actuaires : formation Prophet Professional, migratiton vers Prophet Enterprise
• Coordonne les travaux de construction de la ferme de calcul avec Sungard et un hébergeur Cloud
• Business analyste pour améliorer Organisation, qualité, urbanisation et sécurité
• Développe des web services avec Java/J2EE pour le portail web