Déficits de la cognition auditive non-verbale : de la caractérisation au développement d'un nouveau programme de réhabilitation

Autor: Pralus-Durand, Agathe
Přispěvatelé: Centre de recherche en neurosciences de Lyon (CRNL), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Université Jean Monnet [Saint-Étienne] (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), Université de Lyon, Barbara Tillmann, Anne Caclin
Jazyk: angličtina
Rok vydání: 2020
Předmět:
Zdroj: Neurons and Cognition [q-bio.NC]. Université de Lyon, 2020. English. ⟨NNT : 2020LYSE1180⟩
Popis: The aim of this PhD thesis is to further characterize non-verbal auditory cognition, in particular when it is impaired. The first axis of this research focused on the investigation of emotion perception in two populations with potential deficits: in individuals with congenital amusia and patients with brain-damage. In congenital amusia, Study 1 demonstrated a deficit of emotional prosody perception. This deficit was specifically present for short vowels (versus long sentences). However, the deficit was only present in the explicit recognition task and not in the implicit intensity ratings of the same emotions. Moreover, Study 2 allowed us to relate this explicit recognition deficit with early automatic brain processing decrease by using electroencephalography. In brain-damaged patients, Study 3 demonstrated a deficit for musical emotion perception in relation with the side of the lesion. Based on these results and previous studies, we decided to design a new rehabilitation strategy for the training of non-verbal auditory cognition. In the second axis of this thesis, we focused on developing a new training strategy and chose to test this new training with cochlear implant (CI) users as this population is in high demand for better auditory cognition. We first designed a new short assessment battery for non-verbal auditory cognition. Study 4 demonstrated its efficiency to reveal specific deficits in CI users and in normal-hearing participants by using vocoded sounds. Moreover, findings revealed some evidence that audiovisual cues might help CI users to enhance their non-verbal auditory perception, as previously suggested with verbal material. We then designed a new training strategy by using multisensory integration and more specifically audiovisual stimulation. We suggest that this training could enhance non-verbal auditory abilities of CI users, but also of control participants. We aim to demonstrate the efficiency of this training in a long-term implementation by acquiring both behavioral measures (with the assessment battery developed in Study 4) in all populations with a deficit, but also magnetoencephalographic measures in control participants (Study 5). Overall, this PhD research brings further insight in the field of non-verbal auditory cognition and its associated deficits, and provides a new tool aiming to measure and remediate these deficits, which will then be useable for evaluation in clinical settings; Cette thèse a pour but de fournir de nouveaux outils pour la caractérisation de la cognition auditive non-verbale, ses déficits, et développer un outil pour la réhabilitation. Nous avons choisi de concentrer le premier axe de ce travail sur une meilleure compréhension de la perception des émotions dans deux déficits : l'amusie congénitale et à la suite d'une lésion cérébrale. Dans l'amusie congénitale, nous avons démontré un déficit de perception de la prosodie émotionnelle, en utilisant de courtes voyelles plutôt que de longues phrases. Ce déficit de perception de la prosodie émotionnelle était présent uniquement dans la tâche de reconnaissances des émotions, les amusiques démontrant des notations d’intensité similaires aux contrôles. De plus, nous avons associé ce déficit à une diminution du traitement cérébral automatique précoce grâce à des mesures en électroencéphalographie. Chez les patients présentant une lésion cérébrale, nous avons démontré un déficit de perception des émotions musicales en relation avec le côté de la lésion. Sur la base de ces résultats et d'études antérieures, nous avons décidé de concevoir une nouvelle stratégie de rééducation pour la cognition auditive non verbale. Dans le deuxième axe de cette thèse, nous nous sommes concentrés sur les possibilités d’entrainement de cette cognition et avons choisi de tester cet entrainement avec des utilisateurs d'implants cochléaires (IC). En effet, au sein de cette population, de nombreuses personnes demandent des améliorations pour mieux percevoir les informations non verbales. Dans une première étude, nous avons conçu une nouvelle batterie d'évaluation de la cognition auditive non verbale. Nous avons démontré son efficacité pour révéler des déficits spécifiques chez les utilisateurs d'IC ainsi que chez les participants ayant une audition normale en utilisant des sons vocodés. De plus, nous avons apporté des preuves que les indices audiovisuels pourraient aider les utilisateurs d’IC à améliorer leur perception auditive non verbale, comme précédemment suggéré avec du matériel verbal. Sur la base de cette étude, nous avons conçu une nouvelle stratégie d’entrainement à domicile utilisant l'intégration multisensorielle et plus spécifiquement la stimulation audiovisuelle. Nous suggérons que cet entrainement pourrait améliorer les capacités auditives non verbales des utilisateurs d'IC mais aussi des participants contrôles. Nous visons à démontrer l'efficacité de cet entrainement à long terme à la fois en utilisant des mesures comportementales (avec la batterie d'évaluation développée) chez toutes les populations avec un déficit, mais aussi des mesures en magnétoencéphalographie chez les participants contrôles. Dans l'ensemble, ce travail de doctorat apporte des connaissances supplémentaires dans le domaine de la cognition auditive non verbale et des déficits associés, plus précisément dans le domaine de la perception des émotions. De plus, ce travail fournit un outil intéressant pour remédier à ces déficits
Databáze: OpenAIRE