Optic 2000 - Observatoire de la santé visuelle & auditive
Accueil > Paroles d’experts > Entretiens avec des experts reconnus > Pascal Barone : « Les liens sont très précoces dans les processus cognitifs d’audition et de vision »

Pascal Barone : « Les liens sont très précoces dans les processus cognitifs d’audition et de vision »

La vision et l’audition ne sont pas des sens exclusifs, traités uniquement séparément dans des aires spécifiques du cerveau. Des processus d’intégration multi-sensoriels couplent les signaux en provenance de nos différents sens, ouïe et vue compris. Entretien avec Pascal Barone, directeur de recherche au Centre de Recherche Cerveau et Cognition (CNRS), à Toulouse.

Portrait de Pascal Barone

Pascal Barone

– Dans quelle mesure la vision module-t-elle l’audition et inversement ?

Pascal Barone : Le seul mécanisme par essence véritablement multimodal est la parole. La concomitance des deux types d’informations, visuelle et auditive, est en effet centrale dans l’apprentissage chez le jeune enfant puis dans la compréhension du langage. D’ailleurs, chez des individus sains, sans handicap visuel ou auditif, et jusqu’à l’invention du téléphone, les deux informations ont toujours été accessibles en même temps : le son émis par la parole et les mouvements des lèvres, permettant une lecture labiale. La compréhension peut être améliorée en particulier en sollicitant la vue lorsque l’information auditive est trop faible. C’est le cas de la lecture labiale dans un environnement bruyant ou pour comprendre une langue étrangère. Le phénomène va dans les deux sens : ainsi suite à l’implantation d’un implant cochléaire chez un sourd, la lecture labiale aide au départ à retrouver des compétences auditives mais ensuite la récupération auditive améliore la lecture labiale !

– Est-ce que tous les sons peuvent ainsi compléter une information visuelle, par exemple pour aider à la localisation dans l’espace ?

P. B. : C’est vrai qu’une redondance d’informations permet d’affiner la perception, par exemple un son aide à la réalisation d’une tâche visuelle, comme de suivre un mouvement. Mais il faut que les deux informations soient congruentes, c’est-à-dire qu’elles viennent d’une même région de l’espace et en même temps. C’est un principe général de la multi-sensorialité. Cependant, il n’y a pas d’encodage cérébral comme dans le cas de la parole, qui est une activité très spécifique, avec une unité multimodale fondamentale.

« Nous avons remarqué des projections directes des neurones du cortex auditif primaire dans le cortex visuel primaire, d’une part, et une réponse plus rapide des neurones dans le cortex visuel primaire s’il y a association d’un son. Cela montre que les canaux sensoriels ne sont pas séparés. » 

– Comment et où se passe cet encodage dans le cerveau ?

Deux personnes en train de discuter

© AzmanL

P. B. : Notre équipe a beaucoup travaillé sur ces questions par deux approches. D’abord des études anatomiques, puis de l’électrophysiologie avec des mesures d’activité neuronale dans le cortex visuel chez des singes. Nous avons remarqué des projections directes des neurones du cortex auditif primaire dans le cortex visuel primaire, d’une part, et une réponse plus rapide des neurones dans le cortex visuel primaire s’il y a association d’un son. Cela montre que les canaux sensoriels ne sont pas séparés. Les liens sont très précoces dans les processus cognitifs d’audition et de vision, puisque dès les aires sensorielles unimodales, visuelle primaire et auditive primaire, se produit une intégration. Cela se produit bien en amont de la convergence de l’information vers des aires ultérieures comme le cortex pariétal. La modulation se fait donc très tôt dans le traitement de l’information et joue sur la rapidité de la réponse.

– Que se passe-t-il lorsqu’il y a discordance entre les informations visuelles et auditives, comme dans le cas d’un doublage ?

P. B. : Nous parlions de congruence des signaux dans les processus multi-sensoriels : il faut que les sons et les images proviennent de zones proches spatialement et temporellement mais la fourchette est assez souple. Dans le cas d’un doublage, le décalage annule le gain multimodal mais pour autant le cerveau traite l’information comme un tout et ne perçoit pas ce décalage.

« Les personnes qui deviennent sourdes à l’âge adulte développent moins cette capacité à traiter la parole par le canal visuel. »

– Les personnes handicapées, sourdes ou aveugles, développent-elles plus l’autre sens en compensation de cette impossibilité de multi-sensorialité ?

P. B. : Oui, on sait que les sourds de naissance fondent toute leur communication sociale sur le canal visuel, qu’il s’agisse de lecture labiale ou de langue des signes. Or, chez eux, ces informations sont traitées à la fois par les régions visuelles du cerveau et les aires auditives qui finissent par traiter de la parole « visuelle ». La communication s’en trouve extrêmement performante. Par contre, les personnes qui deviennent sourdes à l’âge adulte développent moins cette capacité à traiter la parole par le canal visuel. Cela a d’ailleurs des conséquences dans la récupération des capacités par des implants cochléaires. Un sourd de naissance à qui l’on proposerait des implants à l’âge de 10 ans n’en bénéficierait quasiment pas. Son cortex ne pourrait pas revenir à un mode de fonctionnement complètement différent. Par contre, si le cortex auditif a déjà appris à traiter de l’information auditive, la fonction initiale peut éventuellement être récupérée, en fonction de l’âge et de la durée de la surdité.

– D’autres sens, comme le toucher, peuvent-ils aussi être intégrés dans ces processus sensoriels, pour la lecture par exemple ?

P. B. : Les aveugles intègrent en effet les informations du toucher par le braille et les traitent dans leurs aires visuelles. Pour des voyants, si l’on est déjà à 100 % des capacités, il n’y aura pas de gain. Par contre, certains spécialistes s’inquiètent par exemple de futures difficultés en lecture si on abandonne l’écriture manuscrite pour de l’écriture tapuscrite. En effet, les processus de lecture et d’écriture sont intimement liés. Il est plus facile d’apprendre à lire si on pratique l’écriture manuelle, par la représentation du mouvement. Il s’agit d’un exemple d’intégration entre vision et proprioception, le sens du mouvement, qui est très proche du toucher.

Ne manquez pas les derniers articles de l'Observatoire de la santé visuelle et auditive.
> Inscrivez-vous à la Newsletter mensuelle.