Angele Brunelliere
Maitresse de conférences-HDR - PSYCHOLOGIE
CNU : SECTION 16 - PSYCHOLOGIE, PSYCHOLOGIE CLINIQUE, PSYCHOLOGIE SOCIALE
- Laboratoire / équipe
- Composantes, facultés
-
Domaines de recherche
Neurocognition de la compréhension du langage oral, perception de la parole, reconnaissance des mots parlés, traitement de la phrase parlée, mécanismes de prédiction

Angele Brunelliere
Maitresse de conférences-HDR - PSYCHOLOGIE
Présentation
Après avoir réalisé un doctorat en Neurosciences à l'Université de Genève dans le laboratoire de psycholinguistique expérimentale, j'ai eu l'occasion d'effectuer deux contrats post-doctoraux, l'un au laboratoire CNRS Parole et Langage à Aix-en-Provence et l'autre au Center for Brain and Cognition à Barcelone.
Depuis Septembre 2011, je suis maître de conférences en psychologie cognitive à l'Université de Lille.
Ma recherche se situe à l'interface de la psychologie expérimentale et des neurosciences cognitives pour comprendre les processus allant de la perception de la parole à la construction du sens de la phrase. Je m'intéresse à comprendre comment les auditeurs décodent et comprennent le message dit par leurs interlocuteurs et comment les auditeurs adaptent leur manière de comprendre ce message. Plus précisément, j’étudie les représentations et les processus cognitifs impliqués dans la compréhension du langage parlé.
Dernières actualités
The contribution of audiovisual speech to lexical-semantic processing in natural spoken sentences
Brunellière, A., Delrue, L., & Auran, C. (2020). The contribution of audiovisual speech to lexical-semantic processing in natural spoken sentences. Language, Cognition & Neuroscience, 35, 694-711, doi.org 10.1080/23273798.2019.1641612
In everyday communication, natural spoken sentences are expressed in a multisensory way through auditory signals and speakers’ visible articulatory gestures. An important issue is to know whether audiovisual speech plays a main role in the linguistic encoding of an utterance until access to meaning. To this end, we conducted an event-related potential experiment during which participants listened passively to spoken sentences and a lexical recognition task. The results revealed that N200 and N400 waves had a greater amplitude after semantically incongruous words than after expected words. This effect of semantic congruency was increased over N200 in the audiovisual trials. Words presented audiovisually also elicited a reduced amplitude of the N400 wave and a facilitated recovery in memory. Our findings shed light on the influence of audiovisual speech on the understanding of natural spoken sentences by acting on the early stages of word recognition in order to access a lexical-semantic network.