Chercheuse : 
Jihene Rezgui

Établissement : 
Collège de Maisonneuve

Année de concours : 
2023-2024

Dans ce projet, nous visons à développer la plateforme Autonomous Learning Intelligent Vehicle Engineering: ALIVE 2.0. Elle permettra de tester et d’analyser les algorithmes d’apprentissage automatique pour améliorer la perception de l’environnement. Le nombre variable de sources des données (les véhicules, etc.), l’incertitude des données et leurs redondances motivent le développement d’une classe d’algorithmes d’apprentissage profond. Particulièrement, nous développerons des modèles d’extraction des données pertinentes qui seront échangées dans le réseau routier. Cette étape de prétraitement des données est essentielle afin de garantir une communication fluide et un traitement en temps réel. Nos véhicules auront une prise de données mixtes : d’abord, les capteurs ultrasons, la caméra, le gyroscope, l’accéléromètre, et les données de communications Véhicule-Véhicule (V2V) et Véhicule-Infrastructure (V2I) basées sur la technologie DSRC (Dedicated Short Range Communications). Le croisement de ces données permettra une perception améliorée et fiable en minimisant les incertitudes des égo-perceptions. Par exemple, les résultats des images seront comparés à ceux des capteurs ultrasons.

Une des forces de ALIVE 2.0 est la représentation réaliste de l’environnement avoisinant les véhicules physiques miniatures, ce que les simulateurs n’ont su nous fournir jusqu’à maintenant. S’ajoute à cela, la grande modularité des véhicules qui permettra d’évaluer différents moyens de communication (DSRC, Wifi, Bluetooth et 5G) et de microcontrôleurs. Toutes les données utilisées au cours du projet seront réelles, ainsi il ne sera pas nécessaire de simuler la perte de paquets, entre autres.

Nous développerons des algorithmes en IA pour la reconnaissance des dangers routiers en traitant les données intra-véhiculaires et en optimisant les communications inter-véhiculaires. Ainsi, les données intra-véhiculaires récoltées par ALIVE-Bot seront divisées en deux catégories: les images et les données numériques (distance, accélération, angle). D’abord, ces données seront principalement utilisées par l’apprentissage machine afin d’assurer la sécurité routière, notamment l’identification et la localisation des obstacles dans l’environnement du véhicule. Ensuite, ces données seront exploitées, fusionnées et préparées, pour établir des communications DSRC collaboratives inter-véhiculaires et ce, afin de réaliser la cartographie 2D de l’environnement. Conséquemment, les dangers routiers et les obstacles seront communiqués aux véhicules avoisinants qui redistribueront l’information afin de créer un réseau de communication excédant la portée maximale d’un seul ALIVE-Bot. De plus, grâce à cette collaboration véhiculaire, une liste de véhicules qui ont la même destination (peloton) sera créée pour réduire le trafic routier et alléger la puissance de calcul demandée à l’infrastructure.

Par la suite, notre plateforme sera testée sur une ville miniature construite au laboratoire LRIMa. Elle contiendra des panneaux de signalisation, des obstacles (piétons, cyclistes, feux de circulation, etc.). La faisabilité de coupler DSRC et 5G dans des voitures réelles sera étudiée. Pour cela, nous procéderons à des essais de nos algorithmes sur piste en circuit fermé.

Finalement, nous assurerons que les données inter-véhiculaires échangées seront sécurisées grâce à des techniques permettant de respecter la confidentialité, l’intégrité et la disponibilité du contenu des communications DSRC. ALIVE 2.0 sera en source libre, ce qui permettra à tous les chercheurs, de valider leurs résultats de recherche et d’y contribuer avec de nouveaux algorithmes.