Responsable : 
Coffey, Emily

Établissement : 
Université Concordia

Année de concours : 
2021-2022

Le but de ce programme de recherche est de comprendre comment l’apprentissage et la mémoire peuvent être améliorés par la présentation du son pendant le sommeil.  Cela consiste à produire des tonalités programmées avec précision durant le sommeil. Ces sons augmentent l’amplitude de certaines oscillations dans le cerveau, notamment les oscillations lentes (OL) et les fuseaux.  Cette technique est nommée stimulation auditive en boucle fermée (CLAS),  et elle a le potentiel pour augmenter les performances de la mémoire. Le CLAS permet donc de sonder la fonction du sommeil dans l’apprentissage, ce qui est important pour comprendre le mécanisme par lequel le son affecte l’activité cérébrale et ses effets sur des tâches complexes dans la vie réelle. Notre laboratoire a développé un ensemble de compétences particulièrement adaptées à la compréhension de ces processus : nous avons de l’expérience avec la formation avec tâches complexes telles que la musique, le CLAS et la modélisation des oscillations à partir de sources cérébrales à l’aide de la magnetoencéphalographie (MEG) ; ce travail constituera la base de l’orientation des recherches de notre nouveau laboratoire.

Nous proposons de répondre à deux questions :

Question I : Comment le sommeil influence l’apprentissage de tâches complexes ? Nous établirons un effet sur la mémoire dû au sommeil dans un paradigme d’apprentissage basé sur la pratique du piano que nous avons développé précédemment, et nous caractériserons les signatures spatio-temporelles de la performance des tâches en utilisant le MEG. Nous prévoyons une augmentation de l’activité des OL et des fuseaux proportionnelle à l’amélioration des tâches le lendemain.

Question II : Pouvons-nous améliorer l’apprentissage avec le CLAS ? Grâce aux connaissances acquises en répondant aux premières deux questions, nous utiliserons la résolution du MEG pour vérifier l’hypothèse selon laquelle le CLAS améliore la consolidation de la mémoire.

Comme le CLAS a un potentiel considérable pour les applications en santé, il est nécessaire de mieux comprendre les mécanismes par lesquels le son peut influencer l’activité cérébrale et la mémoire. Nos résultats seront pertinents pour des nombreux groupes de recherche et pourraient éventuellement mener à la mise au point de meilleures thérapies liées aux bienfaits cognitifs du sommeil, qui peuvent être dégradés par la maladie et le vieillissement. Nos résultats nous permettront également de mieux comprendre les effets du sommeil sur la mémoire.
La dynamique en équilibre et hors équilibre des défauts (e.g. trous dans le réseau cristallin appelés lacunes ou interstitiels) englobe leur interaction entre eux ainsi qu’avec leur environnement. À la base, les défauts définissent les propriétés électroniques, optoélectroniques et chimiques d’un matériau. C’est pourquoi la compréhension des lois de la physique qui sous-tendent ces interactions, migrations et échanges de défauts est essentielle non seulement pour notre compréhension fondamentale des propriétés des matériaux mais aussi parce qu’elle est le socle du développement d’un large éventail de technologies qui sont stratégiques tant pour le Québec que le Canada, notamment les piles à oxyde solide, les membranes de séparation de l’oxygène, la conversion d’énergie, les dispositifs informatiques et les supraconducteurs à haute température. Dans ces applications, des pérovskites (i.e., structures « cubiques » d’oxydes à formule générique ABO3 où A (e.g., Ca ou Sr) et B (e.g., Nb ou Ti) sont des cations et O est un anion), dans lesquelles la dynamique des lacunes d’ion oxygène joue un rôle important, sont largement utilisées soit en tant que composante primaire ou comme substrat. Le corpus de connaissances quantitatives portant sur la dynamique de la mobilité des lacunes dans les pérovskites est basé en grande partie sur le volume et/ou des mesures moyennées dans le temps. Les phénomènes sous-jacents à échelle nanométrique sont en fait moyennés à des échelles dépassant de plusieurs ordres de grandeur les dimensions spatiales et temporelles présentes dans le réseau cristallin. Ceci nuit à notre compréhension des principes physiques de base qui gouvernent la migration des défauts dans les matériaux inorganiques. Afin de combler ce manque de connaissance fondamental, ce projet de recherche effectuera des mesures spatiales et temporelles de la dynamique de migration des défauts à l’échelle appropriée en utilisant des méthodes à résolution temporelle de microscopie à sonde locale (scanning probe microscopy, SPM). Les résultats de ce projet permettront de comprendre les variations spatiales et temporelles de la constante de temps et des barrières d’énergie associées à la migration des lacunes d’oxygène dans la pérovskite inorganique en fonction de la densité de défauts à la surface et au c?ur du matériau. Ce projet de recherche, qui établit des corrélations entre les propriétés physiques observées à la limite des frontières spatiales et temporelles, contribuera non seulement à résoudre des problèmes scientifiques de longue date concernant la génération, le transport et le stockage de l’électricité au moyen de systèmes à matériaux complexes, mais aussi permettra le développement de nouvelles applications en énergies renouvelables et en technologies quantiques  grâce à une compréhension approfondie de la dynamique intrinsèque et collective des porteurs de charge. Ainsi, ce projet de recherche a toutes les chances d’avoir un impact positif sur l’environnement.
Les réponses biochimiques dans la nature sont en parties générées grâce au changement de conformation d’un élément de reconnaissance suite à la liaison d’une molécule d’intérêt. Ce mécanisme permet la reconnaissance sélective et rapide de molécules d’intérêt directement dans des matrices complexes tel que le sang. Il n’est donc pas étonnant que des efforts importants aient été déployés afin d’adapter ce mécanisme de reconnaissance à des fins de détection artificielle. C’est notamment le cas de biocapteurs à base d’oligonucléotides qui utilisent un changement de conformation suite à la liaison de la molécule d’intérêt. Ces biocapteurs possèdent des qualités recherchées qui, en comparaison aux approches analytiques actuelles, permettent: 1) la détection rapide, sélective et quantitative d’ions, de petites molécules ou de protéines sans l’addition de réactifs et directement dans de petits volumes de sang non dilués (de la taille d’un doigt), plutôt que dans des volumes importants (prise de sang), 2) la participation minimale de l’usager afin de mesurer la concentration de molécules d’intérêt, plutôt que d’un technicien hautement qualifié dans un laboratoire équipé pour ce type d’analyse complexe. Malgré ces qualités, l’adoption de ces biocapteurs demeure minimale en raison de leurs limites de détection élevées et leurs basses sensibilités. Nous pensons que ces performances, en deçà des besoins analytiques de ces biocapteurs, sont associées à l’attachement de la biomolécule sur une surface limitant son entropie conformationelle pour des raisons géométriques et électrostatiques. Notre compréhension des interactions à l’interface entre une électrode modifiée et une solution demeure toutefois limitée en raison d’un manque d’approches analytiques permettant l’étude des cinétiques de repliement et de liaison de ces biomolécules. Le projet proposé tente donc de répondre à ce manque grâce au développement d’une approche électrochimique permettant d’étudier la biophysique de biomolécules attachées à des électrodes afin de quantifier les interactions entre l’élément de reconnaissance moléculaire (oligonucléotide) et l’électrode sur laquelle il est adsorbée. Grâce à cette compréhension approfondie de l’interface et des interactions entre un oligonucléotide et une surface, nous prévoyons développer de manière prédictive de nouveaux biocapteurs qui permettront la détection en temps réel de molécules d’intérêt, tel que des neurotransmetteurs qui ont des durées de vie très courtes.
La segmentation sémantique est d’une importance capitale en imagerie médicale, car elle sert au diagnostic, traitement et suivi de nombreuses maladies, ayant un énorme potentiel pour la médecine personnalisée. Les méthodes actuelles de segmentation de pointe sont basées sur des réseaux de neurones convolutifs (CNN), qui ont réalisé des performances étonnantes, dépassant souvent les capacités humaines. Néanmoins, un inconvénient majeur de ces modèles est qu’ils nécessitent de grandes quantités de données étiquetées. Dans la tâche de segmentation, cela implique d’annoter manuellement chaque pixel d’une image, ce qui est un processus très chronophage et sujet à la variabilité de l’observateur. Alors que de nombreuses études ont proposé des différentes stratégies pour apprendre sous le paradigme de la supervision réduite, c’est-à-dire semi ou faiblement supervisé, elles se concentrent généralement sur des scénarios à modalité unique, ignorant la riche information présente dans les images multimodales. Ainsi, dans ce projet, nous avons l’intention d’exploiter des données multimodales dans la segmentation d’images médicales, ce qui a été négligé dans la littérature.

Ce projet contribuera à concevoir de nouvelles et originales stratégies d’apprentissage dans deux scénarios courants en imagerie médicale. Tout d’abord, nous aborderons le problème de l’apprentissage sur des données étiquetées limitées à partir d’images multimodales non alignées. À cette fin, nous exploiterons le fait que les mêmes structures anatomiques sont généralement visibles au travers de différentes modalités, par exemple, le c?ur dans le scanner et dans l’imagerie par résonance magnétique. Des découvertes récentes sur l’apprentissage machine ont montré que l’apprentissage contrastif améliore considérablement le pouvoir de représentation des modèles CNN. Dans cette stratégie d’apprentissage sous contraintes, on fait l’hypothèse que différentes transformations d’une image donnée doivent avoir des représentations latentes similaires, tandis que les représentations d’images différentes doivent être différentes. Cela peut être adopté dans notre scénario, dans le but d’avoir des représentations similaires pour chaque classe, indépendamment de la modalité d’image, améliorant les performances des CNN à modalité unique. Le deuxième scénario implique de grands ensembles de données faiblement étiquetés d’images multimodales alignées, c’est-à-dire des étiquettes d’image. Pour résoudre ce problème, la plupart des travaux de la littérature génèrent des cartes d’activation de classification par pixel (CAM) dérivées d’étiquettes d’image pour une modalité, qui sont ensuite utilisées comme pseudo-masques, imitant l’entraînement supervisé complet. Cependant, ceux-ci sont hautement discriminants et ne parviennent pas à saisir toute l’étendue de l’objet d’intérêt, ce qui entraîne des segmentations sous-optimales. Ainsi, nous avons l’intention de tirer parti des propriétés invariantes et équivariantes des CNN à travers des images multimodales pour améliorer les CAM initiales, conduisant à des résultats de segmentation plus cohérents.

En raison de leur impact économique et social, le domaine d’application de ce projet concerne les images médicales. Néanmoins, les stratégies d’apprentissage qui en découlent ouvriront la porte à de nouvelles avancées dans d’autres applications stratégiques, par exemple, l’imagerie aérienne ou la conduite autonome, ce qui démontre le large impact de ce projet.
Au cours des dernières décennies, la banquise arctique a subi une fonte accélérée. Certains scénarios climatiques prévoient une disparition totale de la banquise arctique en été d’ici à 2050. Cette accélération du déclin de la glace de mer en Arctique a un impact profond sur le climat régional et global, les communautés et installations côtières, le transport maritime et la sécurité de la navigation. Ces impacts, qui concernent tout particulièrement Québec et le nord du Canada, nécessitent d’être étudiés en détails afin d’aider les gouvernements à la prise de décision. Le transport de chaleur par l’océan serait un des principaux acteurs du déclin de la banquise arctique. Toutefois, l’amplitude, la distribution spatiale et la variabilité de ce transport de chaleur vers le bassin arctique sont peu connues, de même que sont peu connus les processus clés qui doivent être représentés dans les modèles de climat afin de réduire les incertitudes sur les projections climatiques. L’objectif de ce projet de recherche est de contribuer à l’avancement des connaissances sur le rôle du transport de chaleur par l’océan sur la réponse de la banquise arctique au changement climatique. Plus précisément, nous proposons d’élucider le rôle de la bathymétrie et des tourbillons océaniques de méso-échelle sur l’entrée des eaux chaudes atlantiques dans le bassin arctique, et comment ce rôle détermine l’amplitude et la distribution spatiale de la fonte de la banquise. Ce projet se concentre sur des questions fondamentales et urgentes sur les processus impliqués dans le transport de chaleur vers la banquise arctique, tout en fournissant des informations clés à la communauté scientifique sur les améliorations nécessaires à la réduction des incertitudes sur les projections climatiques.
La plupart des tissus sont établis dans les premières semaines suivant la conception, durant l’embryogenèse humaine. Au cours de cette période, des changements radicaux surviennent dans les programmes d’expression génique des cellules, orchestrés par un réseau de régulation transcriptionnelle (RRT) complexe composé de facteurs de transcription (FT) et de leurs gènes cibles. Les erreurs qui surviennent pendant cette période cruciale dans ces programmes causent de graves complications de la grossesse et des anomalies congénitales. L’élucidation de ces RRT est essentielle à une compréhension de base des mécanismes de formation des différents tissus humains, qui constitue le fondement pour l’étude des complications liées à la grossesse et à la naissance. Toutefois, en raison de considérations techniques, juridiques et éthiques, on dispose de peu de données sur les différents stades de l’embryogenèse humaine, qui se limitent aux profils instantanés d’expression génique (EXG) d’un petit nombre d’échantillons in vitro. Le déchiffrement de ces RRT nécessite donc des techniques de calcul avancées à même de surmonter les limites relatives aux données, d’intégrer différents types de données non appariées et de différencier clairement les mécanismes de régulation généraux de ceux relatifs à la lignée.

Je propose d’élaborer une telle approche, basée sur des techniques avancées d’apprentissage automatique (AA), et d’identifier les mécanismes de régulation en jeu dans la différenciation des divers tissus durant l’embryogenèse humaine. J’utiliserai une approche multiomique sur des lignées cellulaires correspondant à différents stades de l’embryogenèse. La nouvelle approche consistera en un cadre AA qui permettra d’intégrer différents types de données provenant de sources multiples, de modéliser l’effet simultané de plusieurs FT sur chaque gène cible présumé et de saisira l’influence de ces gènes dans l’embryogenèse. Contrairement à d’autres méthodes de reconstitution des RRT qui sont habituellement indépendantes du phénotype, mon approche intégrera directement l’information phénotypique dans la procédure de reconstitution des RRT afin de distinguer les relations de régulation liées à la filiation de celles d’ordre général.

Ce projet contribuera à l’avancement des connaissances dans de nombreuses disciplines, comme la biologie computationnelle, le développement embryonnaire, la biologie de la régulation et la recherche sur cellules souches. Le projet favorisera une compréhension de base des mécanismes biologiques de l’embryogenèse humaine, permettra d’identifier les principaux régulateurs de l’embryogenèse qui jouent des rôles importants dans les anomalies congénitales et établira une base pour l’étude de ces anomalies. De plus, il pavera la voie à la mise au point de thérapies par cellules souches pour le remplacement des tissus et la médecine régénérative. L’application de l’approche proposée ira bien au-delà de la compréhension de l’embryogenèse: cette méthode (qui sera mise en ?uvre sous forme de logiciel accessible au public) fera progresser les outils actuels de reconstitution des réseaux de régulation et mettra en jeu de nouvelles approches d’analyse des données multiomiques provenant de différentes sources. Ainsi, il permettra aux biologistes expérimentaux de générer de nouvelles hypothèses afin de mieux comprendre la régulation des gènes liés à un résultat phénotypique et d’identifier de nouvelles cibles pour leurs expériences.
L’ère du « big data » représente une opportunité en or pour les méthodes statistiques de démontrer leur polyvalence, grâce à leurs applications dans un large éventail de domaines, incluant l’actuariat. Afin de saisir cette opportunité, les chercheurs et statisticiens doivent être conscients des défis associés à ces jeux de données massifs afin de proposer des solutions adaptées.

Nous savons tous que quantité ne rime pas avec qualité, et c’est particulièrement vrai pour les données. Il est difficile pour les méthodes statistiques d’identifier des tendances dans un jeu de données de mauvaise qualité contenant des valeurs erronées. Les méthodes robustes face aux valeurs aberrantes peuvent fournir de meilleurs résultats dans cette situation. Mon objectif principal avec ce projet est d’introduire une méthode d’analyse en composantes principales (ACP) bayésienne robuste et de démontrer que cette méthodologie procure une valeur ajoutée en actuariat. L’ACP est utilisée en actuariat pour, par exemple, réduire la dimension de jeux de données de courbes de rendement afin de résumer l’information et permettre de la visualiser, et afin de faire des prédictions de la mortalité par groupe d’âges. L’ACP qui sera proposée aura une qualité remarquable : elle produira des résultats basés uniquement sur les valeurs non aberrantes asymptotiquement, lorsque les valeurs aberrantes s’éloignent de plus en plus, tout en générant des composantes principales similaires à l’approche traditionnelle en l’absence de valeurs aberrantes. L’impact des valeurs aberrantes disparaît en fait progressivement, reflétant qu’au début, lorsqu’elles ne sont pas si éloignées, il y a une incertitude quant à savoir si ce sont vraiment des valeurs aberrantes ou non. Les méthodes reflétant automatiquement cette incertitude sont particulièrement utiles dans des contextes où les jeux de données sont de grandes dimensions, comme c’est le cas pour les jeux de données massifs.

Proposer des modèles robustes n’est pas tout, encore faut-il s’assurer que les méthodes numériques requises pour l’inférence peuvent produire des résultats fiables en un temps raisonnable. Pour cela, des algorithmes basés sur des méthodes numériques de pointe seront proposées. Ceux-ci présenteront de façon automatique l’inférence désirée, qu’il s’agisse d’estimation ponctuelle ou d’intervalles de crédibilités. La complexité des modèles est élevée dans le cas considéré car les matrices contenant les composantes principales sont restreintes à l’espace des matrices orthogonales. Pour les estimations ponctuelles, un algorithme d’optimisation faisant des pas en suivant la direction du gradient tout en respectant cette restriction sera exploré et adapté. Pour les intervalles, il est nécessaire d’échantillonner de la distribution a posteriori. Ceci sera fait de façon approximative en utilisant une approche variationnelle de Bayes (variational Bayes). Cette approche est reconnue pour produire des résultats fiables en un temps raisonnable même lorsque le jeu de données est massif.

Des modèles statistiques robustes estimés automatiquement à l’aide de méthodes numériques efficaces correspondent à : des algorithmes d’apprentissage statistique robustes et efficaces. L’avantage des procédures statistiques (par rapport aux algorithmes d’apprentissage automatique typiques par exemple) est qu’elles permettent la quantification des risques et des incertitudes. Cette quantification se trouve au c?ur du rôle des actuaires.
Les réseaux intelligents, en tant que version avancée des systèmes d’énergie ? électrique ou autre, fournissent un rendement supérieur à celui des systèmes existants grâce à des infrastructures informatiques et de communications avancées. Ces cybersystèmes de pointe rendent possible l’utilisation de diverses applications innovantes comme l’intégration efficiente des énergies renouvelables. Le recours aux formes d’énergie renouvelable pour produire de l’énergie propre constitue l’un des principaux piliers sur lesquels repose l’avenir des systèmes de gestion d’énergie et des réseaux intelligents. Parmi ces sources renouvelables, l’éolien a fait l’objet d’une attention non négligeable en raison de sa capacité à produire une quantité considérable d’énergie. Toutefois, le recours à l’éolien peut exposer le réseau intelligent à toute une gamme de problèmes de stabilité et de difficultés techniques. De ces problèmes, l’instabilité sous-synchrone compte parmi les plus fréquents. Il s’est en outre avéré que le réseau intelligent et ses cybersystèmes associés peuvent faire l’objet d’activités malveillantes destinées à altérer leur rendement. Un nombre restreint d’études ont entrepris d’analyser le caractère sécuritaire de l’énergie éolienne, particulièrement sur le plan sous-synchrone. Le présent projet de recherche vise à modéliser le parc éolien en tant que système cyberphysique pour en faire l’épine dorsale de nos travaux. Puis, nous tirerons profit du modèle réaliste ainsi obtenu ? c’est-à-dire du système d’énergie, de la cybercouche, des données, etc. ? pour proposer une technique d’identification du risque destinée à alerter l’opérateur du système sur les risques possibles auxquels celui-ci est exposé, notamment au regard de l’instabilité sous-synchrone. Enfin, à partir des données système disponibles, divers schémas de détection et d’atténuation seront proposés afin de repérer l’attaque, de distinguer celle-ci des pannes ou des défaillances, et d’atténuer ses conséquences.
Les changements climatiques affectent le Nord plus que n’importe quelle autre région du globe, et au cours des 50 dernières années, la température y a augmenté deux fois plus rapidement qu’ailleurs. Ceci a des conséquences sur l’ensemble des écosystèmes nordiques, incluant la fonte des habitats gelés de la cryosphère (glaciers, pergélisol, glace de mer et de lac, neige), dont le volume total est estimé à plus de 33 millions de kilomètres d’eau gelée. La dégradation de la cryosphère a des conséquences à l’échelle planétaire bien documentées (comme l’augmentation du niveau de la mer), mais elle a aussi des conséquences locales moins étudiées : en effet, la fonte des glaces alimente un réseau hydrologique de plus en plus connecté, et pourrait donc transformer les écosystèmes d’eau douce en aval et les organismes qui s’y trouvent. Les lacs en particuliers pourraient voir leurs apports augmenter non seulement depuis les glaciers en amont, mais également par l’écoulement dans leur bassin versant, ou par le couvert diminué et instable de la glace de lac. Les conséquences pourraient être particulièrement importantes sur les communautés microbiennes (ou microbiomes) des écosystèmes d’eau douce en aval. Ces microorganismes aquatiques, qui forment la base des réseaux trophiques du Nord, sont d’une importance capitale : les microorganismes (bactéries, archées, protistes, virus) qui la composent contrôlent les cycles biogéochimiques et permettent le transfert des nutriments et de l’énergie vers les niveaux trophiques supérieurs. Évaluer comment la fonte de la cryosphère peut transformer ces microbiomes d’eau douce est essentiel pour comprendre comment les écosystèmes nordiques répondent au réchauffement climatique. Je propose donc d’étudier la manière dont la fonte de la cryosphère affectera les microbiomes des eaux douces du Nord, qui sont de plus en plus connectées. Ce projet se déroulera dans la vallée Thores du Nord de l’Île d’Ellesmere (Nunavut), où se trouve un glacier en fonte qui alimente directement un lac proglaciaire et les habitats en aval. Le projet se déclinera en trois sous-objectifs : OBJ1. D’abord, ce projet réalisera un inventaire des microorganismes qui sont associés à la cryosphère de cette vallée en utilisation des techniques de séquençage de pointe, le premier en son genre au Canada. Ceci nous donnera un aperçu de quels microorganismes pourraient être relâchés par la fonte de la glace. OBJ2. Ensuite, nous identifierons des marqueurs associés à la fonte, au niveau des organismes et gènes microbiens issus de la fonte, mais également par les contributions de nutriments venant de la glace et du bassin versant. OBJ3. Enfin, ces marqueurs seront utilisés pour mesurer la connectivité microbienne dans l’écosystème, pour déterminer jusqu’où les microorganismes issus du glaciers Thores peuvent se disperser dans le paysage. Ce projet permettra de mieux comprendre les conséquences de la fonte, de répertorier une diversité peu connue et d’identifier des marqueurs génomiques et environnementaux pour suivre les changements futurs. Les microbiomes arctiques sont particulièrement sensibles aux changements globaux, et une meilleure compréhension de leur réponse à la dégradation de la cryosphère est nécessaire pour faire face à la crise climatique actuelle.