Optic 2000 - Observatoire de la santé visuelle & auditive
Accueil > Paroles d’experts > Entretiens avec des experts reconnus > Etienne Gaudrain : « Le cerveau oscille au rythme de la parole pour la rendre compréhensible »

Etienne Gaudrain : « Le cerveau oscille au rythme de la parole pour la rendre compréhensible »

Une collaboration internationale entre l’Université de Maastricht, l’Université de Groningen et le Centre de Recherche en Neurosciences de Lyon a abouti à une publication montrant que la synchronisation des ondes cérébrales avec le rythme de la parole est nécessaire à l’intelligibilité de celle-ci. Le chercheur français Etienne Gaudrain, qui a participé à ces recherches, décrypte le phénomène pour nous.

Portrait d'Etienne Gaudrain

Etienne Gaudrain

– Que savait-on des processus de compréhension de la parole par le cerveau avant vos travaux ?

Etienne Gaudrain : Tout d’abord, il faut savoir que le signal d’une parole peut être décomposé en deux parties : sa structure fine, d’une part, qui contient l’information détaillée du signal sonore, et son enveloppe, d’autre part, qui contient l’information rythmique du langage. On sait que la structure fine présentée seule, sans rythme, est peu intelligible. Le rythme est nécessaire à la compréhension de la parole. Physiquement, il se traduit par des fluctuations lentes du signal acoustique, de l’ordre de 1 à 8 Hz.

Avant nos travaux, il avait déjà été observé que ces fluctuations du signal acoustique provoquent une réponse qu’on appelle « entraînement langage-cerveau » : le cortex auditif de l’auditeur aligne son activité sur ces fluctuations. Cependant, il était jusqu’à présent impossible de savoir si ce phénomène participe réellement à l’intelligibilité du langage ou s’il s’agit seulement d’un épiphénomène annexe.

« Le rythme est nécessaire à la compréhension de la parole. Physiquement, il se traduit par des fluctuations lentes du signal acoustique, de l’ordre de 1 à 8 Hz. »

– En quoi a consisté votre approche ?

E. G. : Jusqu’à peu, les chercheurs utilisaient l’électro-encéphalogramme (EEG) pour tenter de comprendre comment le cerveau traite la parole. Ils présentaient un mot ou une syllabe à un auditeur et enregistraient sa réponse cérébrale. Le problème est que ce signal était troublé par du « bruit », qu’ils devaient éliminer par de multiples répétitions et le calcul d’une moyenne. La parole ne consistant jamais en un même mot répété un grand nombre de fois, ces expériences représentaient assez mal les situations réelles de communication. Depuis dix ans, de nouvelles méthodes se développent pour suivre l’activité du cerveau à l’échelle d’une phrase entière. Cela permet notamment d’observer cette synchronisation neuronale d’entraînement langage-cerveau.

Il manquait encore la preuve d’un lien entre ce phénomène d’entraînement et l’intelligibilité de la parole. Notre expérience a consisté à faire écouter aux participants des phrases spécialement préparées de façon à ce que le rythme de la parole ne soit plus perceptible. En même temps, ils recevaient une stimulation transcrânienne par un courant alternatif portant le rythme de la phrase.

– Qu’a-t-elle permis de montrer ?

E. G. : Dans une première expérience, un homme et une femme s’exprimaient en même temps et les participants devaient par exemple écouter la voix de l’homme. Avec une stimulation transcrânienne coïncidant avec la voix de l’homme, il était plus facile pour eux de comprendre ce que l’homme disait.

« En stimulant le cerveau des auditeurs sur le même rythme, le discours est redevenu compréhensible. »

Dans une seconde expérience, le discours d’un seul locuteur a été rendu inintelligible par une forte réduction de son rythme. En stimulant le cerveau des auditeurs sur le même rythme, le discours est redevenu compréhensible. Cette approche montre donc qu’on peut restaurer l’intelligibilité d’un signal perturbé en synchronisant le rythme de notre cerveau avec celui du signal. C’est également la preuve que cette synchronisation est essentielle à la compréhension du langage.

– Vous précisez que ce mécanisme peut être aussi modulé par des phénomènes internes au cerveau, lesquels ?

E. G. : En effet, cette synchronisation est modulée par exemple par l’attention sélective : le cerveau sélectionne les informations linguistiques à suivre. Si l’on veut écouter un locuteur qui est une femme, notre cerveau s’appuie sur son expérience de ce type de signal « voix de femme », pour appliquer un pattern d’activité sur les aires sensorielles. En quelque sorte, on sélectionne cette voix et le cerveau se synchronise dessus. Ainsi, pour écouter quelqu’un, il faut avoir « conscience » de cette personne. L’expérience que nous avons réalisée avec les deux locuteurs homme et femme parlant en même temps correspond à ce genre de situation.

« Pour écouter quelqu’un, il faut avoir conscience de cette personne. » 

– Que se passe-t-il dans le cerveau une fois que cette synchronisation est mise en place ?

E. G. : C’est justement ce qu’il reste à explorer. Pour le moment, l’hypothèse est que cette synchronisation permet à différentes aires du cerveau de communiquer entre elles, comme les aires sensorielles, les aires de la parole et les aires de la décision dans le lobe frontal. Notre travail ne permet pas encore de réellement répondre à cette question car notre stimulation transcrânienne ne porte pas sur des zones cérébrales assez précises.

– Ce phénomène se produit-il dans d’autres situations ?

E. G. : Il a également été montré une interaction musique-langage. Par exemple, si l’on fait écouter un rythme musical suivi d’une phrase, l’intelligibilité de la phrase sera meilleure si le rythme musical est régulier ou en relation avec celui de la phrase.

Groupe de jeunes entrain de discuter

©Jan-Otto

– Quelles applications voyez-vous à vos travaux ?

E. G. : Pour des personnes malentendantes mais pas complètement sourdes, qui s’aident de la lecture labiale, on pourrait envisager de la remplacer par une stimulation transcrânienne dans des situations où la lecture labiale n’est pas possible ou si la personne devient malvoyante. En effet, l’intelligibilité gagnée avec notre dispositif est similaire à celui procuré par la lecture labiale. Il reste aussi à déterminer si le dispositif pourrait être utile dans un environnement sonore dégradé (bruits parasites). Cependant, il faut noter que la différence d’intelligibilité sans et avec la stimulation n’est pas très grande, de l’ordre de quelques pour cents seulement.

Je vois surtout des retombées indirectes, par exemple pour les prothèses auditives avec des systèmes d’EEG embarqués, actuellement en développement. Notre dispositif pourrait permettre d’ajuster les paramètres de renforcement sur la voix que le porteur écoute, en temps réel. Des travaux sont menés en ce sens et il est important de noter que le type de stimulation transcrânienne que nous utilisons est faible et sans danger.

 

Neural entrainment to speech modulates speech intelligibility, Current Biology, 28, 161-9, January 22, 2018. En ligne : https://pdfs.semanticscholar.org/a318/d1283c32f0cefb1440b52338c4bcfdde6b84.pdf

Logo Optic 2000 Se rendre sur le site du Groupe Optic 2000
Ne manquez pas les derniers articles de l'Observatoire de la santé visuelle et auditive.
> Inscrivez-vous à la Newsletter mensuelle.