Les outils d’intelligence artificielle générative ont fait une entrée fracassante sur la scène publique à la fin 2022. Depuis, leur nombre se multiplie et ils permettent d’accomplir une multitude de tâches plus rapidement et efficacement. Cependant, leur utilisation soulève divers enjeux d’intégrité et d’éthique dans le milieu académique.
Objet et objectifs du rapport
Ce rapport du Comité intersectoriel étudiant (CIE) vise tout d’abord à prendre le pouls de la relève en recherche quant à l’utilisation (ou la non-utilisation) des outils d’IA, ainsi que sa perception des enjeux liés à leur usage. La démarche du CIE comprend une revue de la littérature, une consultation de la relève en recherche au Québec lors des Journées de la relève en recherche 2024 (J2R) organisées par l’Acfas et le FRQ, et une recension des balises des établissements d’enseignement supérieur québécois.
Ce rapport s’adresse principalement au FRQ, mais aussi aux établissements d’enseignement supérieur et à toute la communauté de recherche.
Résultats et principales recommandations
La relève consultée considère globalement les outils d’intelligence artificielle comme incontournables, les voyant comme de véritables alliés pour diverses tâches. Cependant, plusieurs préoccupations émergent notamment au niveau de l’intégrité académique ou de la fiabilité de l’information. La relève constate un manque d’éducation et de directives claires quant à l’utilisation de ces outils en contexte de recherche et d’enseignement supérieur.
La recension des balises institutionnelles concernant l’utilisation des outils d’intelligence artificielle a quant à elle révélé une grande hétérogénéité d’un établissement à l’autre. Plusieurs institutions utilisent également un vocabulaire flou et pas nécessairement spécifique aux travaux de recherche, un problème par ailleurs soulevé par la relève, qui demande des précisions.
Face à ce bilan, le CIE propose huit pistes d’action adressées au FRQ et aux établissements d’enseignement supérieur. Les pistes d’action portent entre autres sur l’utilisation responsable et transparente, les métriques de performance et sur les balises institutionnelles. L’objectif de ces pistes d’action est de maximiser les bénéfices liés à l’utilisation d’outils d’IA tout en minimisant les risques. Le CIE est d’avis que l’optimisme prudent devant l’omniprésence des outils d’IA est la meilleure façon d’aborder cette réalité. Ce rapport est le point de départ d’une réflexion entamée par le CIE pour soutenir une utilisation responsable et constructive des outils d’IA générative par la relève en recherche.
Renseignements:
Comité intersectoriel étudiant


