Bienvenue au
Laboratoire de cognition et neurodynamique computationnelle 

canal-20131101

À propos du laboratoire

Même si c’est quelque chose que nous faisons tous les jours sans efforts, la mémorisation est en fait une tâche extrêmement complexe. Par exemple, le simple fait d’emmagasiner et extraire des patrons perceptuels est un acte que les ordinateurs ne peuvent accomplir avec l’efficacité et la robustesse de l’humain.

Le laboratoire CONEC vise à mieux comprendre comment le système cognitif humain accompli la tâche complexe de créer (et améliorer) des représentations des patrons tout en étant en mesure de les reconnaitre, identifier, catégoriser et classifier. En particulier, la recherche se concentre sur l’utilisation d’une perspective dynamique nonlinéaire où le temps et le changement sont des variables clés.

Pour comprendre comment le système cognitif humain fonctionne, nous devons développer des modèles formels. Ainsi, le laboratoire CONEC utilise des réseaux de neurones artificiels récurrents qui sont massivement parallèle où l’information est distribuée à l’ensemble des unités. Par conséquent, l’objectif principal est le développement d’une mémoire associative bidirectionnelle qui peuvent rendre compte des apprentissages supervisés, non supervisés et par renforcement tout en étant contraint par les données de la neuroscience. En développant des modèles, nous espérons avoir une meilleure compréhension du fonctionnement du cerveau.


Membres

image (1)
Directeur

Chartier, Sylvain

Sylvain

Directeur du Laboratoire de cognition et neurodynamique computationnelle et Professeurs agrégé, École de psychologie

Doctorat (2004) – Psychologie – Université du Québec à Montréal
B.Sc. (spécialisé) (1998) – Psychologie – Université du Québec à Montréal
B.A. (1996) – Psychologie – Université d'Ottawa

Pièce : VNR 3022

Courriel professionnel : Sylvain.Chartier@uOttawa.ca

Dr. Sylvain Chartier a obtenu un B.A. de l’université d’Ottawa en 1993, un B.Sc. (honours) de l’université du Québec à Montréal en 1993 et un Ph.D. également de l’université du Québec à Montréal en 2004; tous en psychologie. Sa thèse de doctorat portait sur le développement de réseaux de neurones artificiels pour la catégorisation autonome. De 2004 à 2007, il a effectué un post doctorat au centre de recherche de l’Institut Philippe-Pinel de Montréal où il a effectué des recherches sur les analyses des mouvements oculaires et leur classification. Depuis 2007 il est professeur à l’université d’Ottawa.

Mots-clés

  • Mémoires associatives récurrentes
  • Systèmes dynamiques nonlinéaires
  • Méthodes quantitatives

Contact

Courriel: Sylvain.Chartier@uOttawa.ca

Local: VNR 3022

Chercheur affilié

Cyr, André

Andre

Dr André Cyr a gradué en Médecine à l’université de Montréal et a complété un doctorat en Informatique Cognitive à l’Université du Québec à Montréal. Son intérêt premier réside dans la compréhension globale du phénomène de l’intelligence et des liens possibles avec le domaine de l’intelligence artificielle. L’apprentissage et la mémoire sont les thèmes majeurs de ses recherches, étudiés par des approches computationnelles bio-inspirées. La principale méthodologie utilisée est celle des réseaux de neurones artificiels à impulsion (RNAI) agissant comme cerveau-contrôleur d’agents cognitifs complets virtuels et physiques. Les sujets d’étude sont variés mais ont en commun de simuler des caractéristiques ou comportements de bas niveau de l’intelligence naturelle, tel que retrouvés chez les invertébrés. Les différentes hypothèses de recherche sont d’abord explorées par des scénarios virtuels, puis les RNAI sont incarnés dans des robots physiques pour tester les contraintes du monde réel. Les données produites sont expliquées et détaillées du niveau des synapses jusqu’aux comportements des agents cognitifs. Deux exemples actuels de projets sont représentés par la simulation de l’attention visuelle et de l’apprentissage de concepts abstraits tel que semblable/différent.

Mots-Clés

  • Intelligence artificielle générale
  • Cognition
  • Adaptation comportementale
  • Mémoire et apprentissage
  • Bio-inspiration robotiques
  • Neurocience computationnelle
Étudiants du programme d'études supérieures

Berberian, Nareg

Nareg

B.Sc. Psychologie (2015)

Mots-Clés

  • Analysis of electrophysiological data (Multi-electrode Utah Array; Single cell recordings; Calcium imaging; EEG)
  • Plasticity in networks of spiking neurons
  • Bio-inspired vision and learning in robotics
  • Associative memory
  • Decision-making

Courriel

nberb062@uOttawa.ca


Church, Kinsey

Kinsey Church
BSc. Psychologie (2019)

Intérêts de recherche: Réseaux de neurones artificiels, cognition, apprentissage, comportement et intelligence artificielles. Mon projet actuel porte sur l’étude du compromis entre l’exploration et l’exploitation en cognition.

Courriel: kchur026@uOttawa.ca


Rolon-Mérette, Damiem

Damiem

Diplômes: B.Sc. spécialisé en Psychologie et B.Sc. spécialisé approfondie Majeur Biochimie avec Majeur en Psychologie  (Année)

Intérêts de recherche : Je me penche présentement sur les mécanismes responsables de l’apprentissage et la mémoire chez l’être humain, plus spécifiquement ceux reliés à l’apprentissage par association. Pour ce faire des réseaux de neurones artificiels sont utilisés afin de modéliser le phénomène. Ceci permet de tirer des conclusions parallèles avec le cerveau humain. Les concepts clés présentement à mon agenda sont les associations de type un-à-multiple, le rôle du contexte dans l’apprentissage par association et comment le tout permettrait d’atteindre de l’intelligence artificielle général.

Email: drolo083@uOttawa.ca


Rolon-Mérette, Thaddé

Thadde

Depuis 2017, étudiant au doctorat en psychologie expérimentale à l’université d’Ottawa

Reçut un B.Sc.en sciences biomédicales à Université d’Ottawa en 2015

Reçut un B.Sc. en psychologie à Université d’Ottawa en 2016

Ses principaux intérêts de recherche sont les domaines de cognition et réseaux de neurones artificiels, avec une emphase sure:

  • Les mémoires associatives
  • Apprentissage
  • Contextes
  • Architecture croissante
  • Extraction de caractéristiques
  • Apprentissages profond (deep learning)

Ross, Matthew

Matthew
Matt a complété son baccalauréat spécialisé en psychologie à l'Université d'Ottawa et fait actuellement un doctorat en psychologie expérimentale sous la direction du Dr. Chartier. Ses intérêts de recherche portent sur le développement et les tests de réseaux neuronaux artificiels (RNA), pour la modélisation des propriétés émergentes des circuits corticaux, en mettant l'accent sur l'apprentissage. Récemment, Matt s'est concentré davantage sur des modèles de vision inspirés par la biologie et sur la poursuite de tests dans le monde réel à l'aide d'agents robotiques.
Étudiants du programme de spécialisation

There are no results for this content list.

Anciens

Levente Orban, PhD 2014

Laurence Morissette, PhD 2018


Publications

istock_publications_resized
Applications

B

C

H

L

M

N

O

R

T

V

W

Extraction de composantes

C

G

L

M

N

O

R

T

V

Mémoire

B

C

G

H

J

M

N

R

S

T

Z

Réseaux de neurones à impulsions

B

C

J

M

R

Z

Réseaux de neurones artificiels

A

B

C

D

G

H

J

L

M

N

O

R

S

T

V

W

Z

Robotique

B

C

R

W

Tutoriels

C

J

L

M

V

W

Vision

B

C

O


Projets

istock_project_resized
Le développement des architectures et les tâches non séparables linéairement

Habituellement les mémoires associatives bidirectionnelles (MAB) peuvent classifier seulement dans le cas où les données peuvent être séparées par une droite. Ce type d'apprentissage supervisé est courant dans la vie de tous les jours. Par exemple, faire l'association entre un nom et un numéro de téléphone. Ce type de classification est robuste au bruit et l'apprentissage peut être généralisé à de nouvelles données. En logique les porte OU et ET en sont des exemples. Cependant, il y plusieurs situations ou cette séparation linéaire n'est pas suffisante. Un exemple connu en psychologie est le problème de la balance où le participant doit intégrer l'information concomitante de deux dimensions: le poids et la distances. L'exemple classique en logique est celui du OU Exclusif. Les réseaux multicouches peuvent effectuer ce type de classification aisément. Malheureusement, la majorité d'entre eux manque de plausibilité cognitive ou biologique. Par conséquent, si nous voulons accroître la puissance explicative de la MAB, il est essentiel que cette dernière puisse résoudre les tâches non séparables linéairement (1). Ainsi, les apprentissages supervisés simples et complexes peuvent être incorporés au sein d'un modèle unique. Une solution possible serait d'utiliser une architecture croissante (ex. cascade correlation, (2)). Il fut montré que cette solution permet à des réseaux de résoudre ce type d'associations (3). Par conséquent, nous proposons qu'une fonction de croissance soit ajoutée au modèle.

  1. Chartier, S., Leth-Steensen, C. & Hébert, M.-F. (2012). Performing Complex Associations Using a Generalized Bidirectional Associative Memory. Journal of Experimental & Theoretical Artificial Intelligence, vol. 24, no. 1, pages 23-42
  2. Fahlman, S. E., & Lebiere, C. (1990). The cascade-correlation learning architecture. Advances in Neural Information Processing Systems II, 524-532.
  3. Tremblay, C., Myers-Stewart, K., Morissette, L., & Chartier, S. (2013, July). Bidirectional Associative Memory and Learning of Nonlinearly Separable Tasks. In R. West & T. Stewart (Eds.), Proceedings of the 12th International Conference on Cognitive Modeling, Ottawa, Canada, pp. 420-425.
L'apprentissage par renforcement dans les mémoires associatives

Les apprentissages supervisés et non supervisés sont de nature passive; les bonnes réponses sont données pour chaque valeur de sortie. Ceci contraste avec l’apprentissage par renforcement où le réseau se doit d’être actif. Il doit être en mesure de générer une action (réponse) à laquelle seulement une rétroaction de réussite ou échec est donnée. Ainsi, lorsque le réseau n’émet pas la bonne action, ce dernier doit pouvoir en essayer une autre solution potentielle basée sur ses acquis (exploitation). Dans certaines situations, le réseau peut avoir épuisé toutes les solutions possibles and doit par conséquent en générer une nouvelle (exploration) (1); . Étant donné que la MAB est de nature passive, peu d’essais ont été faits afin d’implémenter l’apprentissage par renforcement. Deux solutions furent tentées dans le passées. La première vise à contrôler des réponses et l’ajout d’une exploration chaotique (2). La deuxième utilise l’implémentation du Q-learning à l’intérieur de la règle d’apprentissage de la MAB (3). Dans les deux cas, les résultats ont montré la possibilité d'utiliser l’apprentissage par renforcement dans les réseaux récurrents.

  1. Sutton, R. S. & Barto, A. G. (1998). Reinforcement Learning: An Introduction. Cambridge: MIT Press.
  2. Chartier, S. Boukadoum, M. & Amiri, M. (2009). BAM learning of nonlinearly seperable tasks by using an asymmetrical output function and reinforcement learning, IEEE Transactions on neural networks, vol. 20, pp. 1281-1292.
  3. Salmon, R., Sadeghian, A. & Chartier, S. (2010). Reinforcement learning using associative memory networks, Proceedings of the International Joint Conference on Neural Networks, Barcelona, Spain, 7 pages.
La plasticité dans le développement des circuits neuronaux

Les changements dépendants de l’activité dans les transmissions synaptiques proviennent de grand nombre de mécanismes connus sous la plasticité synaptique. Cette dernière peut être divisée selon trois grandes catégories : (1) la plasticité à long terme, où les changements peuvent durer des heures ou plus permettant l’apprentissage et la mémoire; (2) la plasticité homéostatique, où les synapses et les neurones maintiennent l’excitabilité et la connectivité malgré des changements abruptes résultant la dépendance à l’expérience de la plasticité; (3) la plasticité à court-terme, où les changements dans la force des synapses se produisent dans l’ordre des millisecondes aux secondes. Dans les circuits neuronaux, les codes neuronaux pour les items chargés montrent des patrons d’activités nécessitant d’être distinguables des autres qui demeurent à un niveau d’activité de base. À l’intérieur de ce schème, cela demeure encore inconnu comment les contributions collectives des plasticités à court et long terme ainsi qu’homéostatique permettent le gain, le maintien ou la perte d’information dans les circuits neuronaux. Afin de s’attaquer à ce problème, il est important d’examiner l’interaction synergique entre ces mécanismes distincts et omniprésents de la plasticité dans les circuits neuronaux.

  1. Berberian N., Ross M., Chartier S., Thivierge J.P. (2017). Synergy Between Short-Term and Long-Term Plasticity Explains Direction Selectivity in Visual Cortex. IEEE Symposium Series on Computational Intelligence (IEEE SSCI), 1-8.
  2. Costa R P., Froemke R. C., Sjöström P. J., & van Rossum M. C. W. (2015). Unified pre- and postsynaptic long-term plasticity enables reliable and flexible learning, Elife, vol. 4, pp. 1–16.
  3. Mongillo G., Barak O., & Tsodyks M. (2008). Synaptic Theory of Working Memory. Science, vol. 319, no. 5869, pp. 1543–1546.
L'apprentissage des concepts de relation

L’apprentissage des concepts de relation représente un processus d’abstraction de règles entres les stimuli sans références précises quant à leurs caractéristiques physiques. Plusieurs espèces animales montrent cette capacité (1). Par exemple, le concept de relation de haut/bas peut être appris pas des agents naturels mêmes des invertébrés (2). Par ailleurs, il est possible que plus d’une relation puisse être apprises en concomitance (3). Même si les données empiriques provenant des organismes neuronaux simples sont connues, il n’en demeure pas moins qu’un circuit précis impliquant le processus d’apprentissage des concepts de relation reste à être trouvé. Ce phénomène cognitif peut aussi être étudié par différents outils computationnels, tels que les réseaux de neurones à impulsions contrôlant un robot (4). Un des objectifs du laboratoire est de mettre au défi nos modèles en tenant compte des faits de ce processus cognitif provenant d’une perspective d’intelligence artificielle.

  1. Zentall, T. R., Wasserman, E. A., & Urcuioli, P. J. (2014). Associative concept learning in animals. Journal of the experimental analysis of behavior, 101(1), 130-151.
  2. Avarguès-Weber, A., Dyer, A. G., & Giurfa, M. (2010). Conceptualization of above and below relationships by an insect. Proceedings of the Royal Society of London B: Biological Sciences, rspb20101891.
  3. Avarguès-Weber, A., Dyer, A. G., Combe, M., & Giurfa, M. (2012). Simultaneous mastering of two abstract concepts by the miniature brain of bees. Proceedings of the National Academy of Sciences, 201202576.
  4. Cyr, A., Avarguès-Weber, A., & Theriault, F. (2017). Sameness/difference spiking neural circuit as a relational concept precursor model: A bio-inspired robotic implementation. Biologically Inspired Cognitive Architectures, 21, 59-66.

Contactez-nous

Laboratoire de cognition et neurodynamique computationnelle

École de psychologie
Faculté des sciences sociales
Université d'Ottawa
136 Jean-Jacques Lussier
Pavillon Vanier, pièce 3022
Ottawa, Ontario, Canada K1N 6N5
Carte