• Mise en œuvre et automatisation d'un flux de données permettant la collecte, le formatage et
l'anonymisation des données de conduite.
• Utilisation de techniques de Deep Learning pour la détection et segmentation d'objets en temps réel tels
que les véhicules, les piétons, les feux de signalisation, les lignes de la route en 2D et 3D sur jetson Xavier
et Orin en utilisant YOLOV5,7,8 avec Deepstream.
• Création d’un pipeline permettant d'optimiser nos algorithmes en passant de PyTorch à TensorRT tout
en exploitant la technique de sparsity pour l’optimisation.
• Création d'un jumeau numérique du véhicule sur un simulateur, en reproduisant des caméras
spécifiques comme la caméra fisheye, pinhol.
• Utilisation de techniques de Machine Learning telles qu'OpenCV pour le traitement d'images.
• Développement de techniques d'odométrie pour estimer et suivre la position et l'orientation du véhicule
en se basant sur les mesures de mouvement des capteurs embarqués.
• Utilisation de middleware tels que RTMaps et ROS2 pour concevoir des modules et des packages
destinés à être embarqués dans le véhicule, tout en les intégrant aux plates-formes matérielles telles
que Jetson Xavier et Orin de NVIDIA.
• Développement d’un pipeline automatisé pour transférer les données d'un serveur local vers un service
S3 d'AWS.
• Utilisation de Docker pour créer des images de nos codes existants sur une Jetson (Nvidia) de bureau,
permettant ainsi de reproduire facilement la même configuration sur une Jetson (Nvidia) embarquée
dans le véhicule.
Reconnaissance de voix en français
• État de l'art et évaluations/benchmarks pour différentes solutions du marché (teliSpeech, Nuance,
Dragon Voice, Call Steering, MixNLU, Cobalt, Call Desk, Google, Allomedia, etc.)
• Extraction, nettoyage et transformation de grands volumes de données vocales provenant de différentes
sources.
• Développement d’un modèle de reconnaissance de voix par le deep learning avec des données propres
en entrée.
• Évaluation des performances et test.
Classification de texte
• Réalisation d’un état de l’art.
• Extraction, nettoyage et transformation textuels en utilisant les techniques de word embedding.
• Développement des algorithmes de classification de teste par Deep learning, réseaux de neurones
LinkedIn : ********-******** Email: ********
Tel : ******** Adresse : Nanterre
Hassina ******** | Data Scientist/Engineer
récurrents, Random Forest, SVM.
• Évaluation des performances.
Chatbot
• État de l'art et évaluations/benchmarks pour différentes solutions du marché (Replika,Botti, etc.)
• Extraction, nettoyage et transformation textuels FAQ.
• Développement des algorithmes de classification de teste par Deep learning, classification naïve
bayésien, Random Forest, SVM, régression logistique.
• Évaluation des performances.
Recueil et analyse des besoins fonctionnels :
• Organiser des réunions avec les parties prenantes pour comprendre les exigences du système de
recommandation.
• Identifier les critères importants pour les recommandations, tels que les préférences des utilisateurs, les
caractéristiques des produits, etc.
Développement d'algorithmes de recommandation :
• Utiliser Python pour concevoir et mettre en œuvre des algorithmes adaptés au big data, comme le
filtrage collaboratif, le filtrage basé sur le contenu ou les modèles de factorisation matricielle.
• Optimiser les algorithmes pour garantir leur efficacité et leur extensibilité.
Traitement et préparation des données :
• Nettoyer et prétraiter les données brutes pour les rendre utilisables dans le système de
recommandation.
• Utiliser SQL pour gérer efficacement les bases de données contenant les informations sur les produits et
les utilisateurs.
Construction de l'environnement technique :
• Travailler sur un environnement Linux pour assurer la compatibilité et la stabilité du système.
• Installer les bibliothèques Python nécessaires pour le développement et l'analyse des données.
Évaluation des performances des algorithmes :
• Comparer les performances des différents algorithmes de recommandation en utilisant des métriques
appropriées.
• Identifier les points forts et les limitations de chaque approche.
• Rédaction d'un compte rendu :
• Documenter le processus de développement, les choix d'algorithmes et les étapes de prétraitement des
données.
• Présenter les résultats de l'évaluation et fournir des recommandations pour améliorer le système de
recommandation.
Rédaction d'un compte rendu :
• Documenter le processus de développement, les choix d'algorithmes et les étapes de prétraitement des
données.
• Présenter les résultats de l'évaluation et fournir des recommandations pour améliorer le système de
recommandation.