Agnosies auditives et syndromes voisins . Étude clinique, cognitive et psychopathologique

0
2408

Introduction :

Depuis la fin du XIXe siècle , les troubles de la perception auditive d’origine cérébrale ont été progressivement regroupés en trois syndromes distincts.

L’agnosie auditive est l’impossibilité de reconnaître les bruits de l’environnement , la parole et la musique , que le malade déclare cependant entendre.

Ce terme a été créé en 1891 par Freud, à propos d’une malade aveugle qui, par la suite , ne put guère identifier son médecin à la voix.

La surdité verbale pure, individualisée par Kussmaull et décrite par Lichtheim, est l’impossibilité de comprendre le langage parlé, de répéter ou d’écrire sous dictée , en l’absence d’autre signe d’ aphasie.

La surdité corticale est définie comme l’impression d’être sourd contrastant avec l’intégrité de l’audiogramme tonal.

Agnosies auditives et syndromes voisins . Étude clinique, cognitive et psychopathologiqueMichel , dans le but de faciliter la distinction de ces trois syndromes souvent confondus, proposa de caractériser la surdité corticale par l’abolition des potentiels évoqués auditifs (PEA) corticaux, alors que dans l’agnosie auditive ils sont présents, bien que souvent altérés.

Il appela « hémianacousie » la surdité d’un hémisphère cérébral avec abolition des PEAcorticaux de ce côté et extinction de l’ oreille controlatérale au test d’ écoute dichotique.

Il assimila la surdité corticale à une double hémianacousie.

En 1985, nous avons colligé une soixantaine d’observations de troubles perceptifs auditifs d’origine cérébrale, dont 18 anatomocliniques.

Il faut y ajouter des cas plus récents et mentionner des travaux plus spécialement consacrés à la perception de la musique.

La dernière décade a été marquée par l’introduction des méthodes d’examen faisant appel à la neuro- imagerie fonctionnelle et la parution d’ articles généraux sur le sujet.

Différents stimuli auditifs et leur perception :

A – Stimuli sonores :

Ils comprennent les sons musicaux, les bruits de l’environnement et les sons verbaux.

1- Sons musicaux :

Un son musical est défini par sa hauteur , sa durée, son timbre.

La hauteur (pitch) dépend de la fréquence de l’onde sonore, qui n’ est autre que la vibration de l’air dans l’ espace dans lequel le son se transmet.

Le son pur se caractérise par une simple sinusoïde ; il n’existe pas dans la nature.

Le sonagraphe permet d’analyser la composition d’un son musical.

Celui-ci est fait d’une fondamentale exprimée en hertz (Hz), qui donne sa hauteur, et d’un certain nombre d’harmoniques ou « partiels » dont l’intensité, la présence ou l’absence sont responsables du timbre.

La place des harmoniques dans l’ échelle sonore par rapport à la fondamentale est immuable, ce qui les fit considérer par Rameau comme « naturels » parce qu’ils sont émis par l’ébranlement des corps sonores dans la nature.

Les variations de la pression acoustique (exprimées en pascals) agissent sur la membrane tympanique.

Les stimuli musicaux successifs qui parviennent au tympan au cours de l’audition musicale sont des ondes extrêmement complexes, analysables au moyen des transformées de Fourier.

La reconnaissance de la qualité musicale d’un son est difficile hors du contexte.

Elle repose sur l’extraction d’une périodicité particulière de l’onde sonore douée d’une certaine permanence sur l’échelle tonale.

2- Bruits de l’environnement :

Même s’ils sont doués d’une certaine continuité comme les bruits des machines, ils n’ont pas une structure vibratoire périodique analogue à celle des sons musicaux.

Cependant, de tels bruits comprennent une succession de stimuli sonores organisés en séquences caractéristiques qui permettent leur reconnaissance.

Ils ont une double valeur : d’ alarme et d’exploration, surtout chez les non- voyants.

C’est à partir des années 1940 que des auteurs se sont intéressés aux facteurs contribuant à l’identification des sons complexes de l’environnement.

Certains d’entre eux portent plus spécifiquement sur l’ élément acoustique et sur l’analyse spectrale et temporelle de l’ événement sonore, d’autres, sur les éléments cognitifs impliqués dans l’identification comme la familiarité du son, la « typicalité » de l’ exemplaire, le nombre de sources possibles du son (ambiguïté).

Plusieurs paramètres acoustiques temporels mais aussi spectraux peuvent intervenir et leurs différentes combinaisons font varier la qualité de la perception des sons de l’environnement.

Edworthy et al ont montré que l’interprétation de signaux d’alarme peut varier selon les caractéristiques acoustiques de ces sons.

Ainsi, en faisant varier la fréquence fondamentale, le degré de régularité rythmique , la forme de l’ enveloppe , et en les combinant de façon différente , les sujets perçoivent un degré d’ urgence différent.

Mosier, en 1941, fut un des premiers, à la suite de l’observation des « sonars », à prendre en considération la « signification » du son pour le sujet, en analysant les sons de l’environnement non plus comme des événements acoustiques complexes, mais comme moyen de connaître le monde qui nous entoure.

Les travaux de Ballas et de ses collaborateurs consistent à caractériser la spécificité d’un son de l’environnement et à étudier les facteurs contribuant à l’identification d’une grande variété de sons.

L’hypothèse principale est que l’identification d’un son de l’environnement dépend en grande partie de son taux d’ambiguïté attaché au nombre de sources possibles de ce son. Ballas distingue quatre catégories de sons (pas forcément homogènes au niveau des paramètres considérés) :

– sons d’alarme : ils présentent une haute fréquence et sont les plus faciles à identifier (sonnerie , klaxon , mais aussi feu d’ artifice, scie mécanique) ;

– bruits d’eau : ils comprennent également des bruits caractérisés de la même façon avec un timbre bas, relaxant et plaisant ;

– sons modulés : ils sont homogènes acoustiquement mais hétérogènes au niveau du type d’événement (sons de machine , de porte , de fusil). Ils sont difficiles à identifier ;

– sons avec des transitoires : ils sont assez hétérogènes au niveau de l’événement considéré (bruits de pas, d’interrupteur , de briquet).

L’identification de ces sons est très variable et dépend beaucoup de leur durée.

3- Sons verbaux :

Le système phonologique français comprend des sons vocaliques – 11 à 15 selon les variantes -, des sons consonantiques – 17 – et des semi-consonnes – 3 -.

Du point de vue de la phonétique articulatoire, les phonèmes représentent des entités phonologiques décomposables en un faisceau de traits articulatoires et acoustiques organisés dans un système binaire.

Classiquement, les voyelles sont définies à travers les traits (ouvert versus fermé , antérieur versus postérieur, arrondi versus étiré, oral versus nasal), les consonnes par les traits liés au mode d’ articulation (occlusif versus constrictif), au lieu d’articulation (labial versus dental, palatal ou vélaire), ainsi que par l’opposition orale versus nasale.

Du point de vue de la phonétique acoustique, les sons du langage sont des sons complexes, c’est-à- dire comportant une fondamentale et des harmoniques.

Les formants sont des renforcements d’intensité pendant l’émission, dans certaines zones fréquentielles spécifiques, non superposables exactement aux harmoniques. Les voyelles sont des sons périodiques (chaque harmonique est un multiple du fondamental).

Leur spectre est caractérisable par les trois premiers formants : F1 ( zone fréquentielle : 250 à 850 Hz), F2 (zone fréquentielle : 600 à 2 700 Hz) et F3 (zone fréquentielle : 2 200 à 3 200 Hz), liés au degré d’ aperture (F1), au critère d’antériorité-postériorité (F2 et F3) et à la labialité (F2).

Les consonnes sont des bruits, c’est-à-dire des sons non périodiques, dont le spectre de fréquence est plus étendu que celui des voyelles.

Toutefois, les consonnes sonores sont produites avec des vibrations laryngées.

Les consonnes sont caractérisables par les transitions de formants consonne-voyelle.

Les travaux récents insistent sur la non-biunivocité entre code symbolique et signal acoustique.

Les unités infralexicales (traits, phonèmes, syllabes) n’ont que peu d’invariance aux niveaux acoustique et articulatoire. Plusieurs facteurs interviennent.

Ainsi, des phénomènes constants de coarticulation entre larynx et organes supraglottiques, rendent quasi impossible de déterminer dans une syllabe [si], où finit le [s] et où commence le [i].

De même, du fait de l’anticipation du mouvement des lèvres différente lors de l’émission d’un [a] et d’un [u], le [s] n’aura pas les mêmes caractéristiques acoustiques dans la syllabe [sa] et [su].

Enfin, les variations phonétiques liées à l’âge, au sexe du locuteur, ou à la prononciation régionale, viennent modifier les caractéristiques acoustiques.

Cette grande variabilité des paramètres physiques nécessite le développement d’une perception de type catégorielle et montre par ailleurs l’importance du contexte syllabique.

B – Neuropsychologie de la perception auditive :

1- Perception des sons musicaux :

Les perceptions des sons musicaux et des sons verbaux ont en commun leur segmentation en éléments simples.

La mélodie, les silences, les rythmes, les nuances dessinent des phrases musicales, elles-mêmes dissociables en cellules rythmiques, mais les similitudes entre langage musical et langage verbal ne doivent pas faire perdre de vue leur différence dans la nature de la communication.

Le but du langage verbal est de transmettre de façon aussi claire que possible un message.

Le but de la musique n’est pas de transmettre une information (sauf dans des cas très particuliers : hymnes, sonneries, sirènes…) mais de faire naître, chez l’auditeur, un sens, souvent différent d’ailleurs de celui voulu par l’auteur.

Alajouanine a opposé le symbolisme primaire des signaux qui constituent la représentation graphique musicale au « symbolisme supérieur » dans lequel se fait la rencontre de l’auditeur, du compositeur et de l’interprète.

On ne sera pas surpris que les lésions corticales (ou sous-corticales) responsables des aphasies ne soient pas les mêmes que celles qui provoquent les amusies.

La perception de la musique comprend trois niveaux : le premier, le plus élémentaire, est la reconnaissance musicale d’un stimulus auditif ; le second est l’analyse structurale de la musique, soit élémentaire (hauteur, intensité, rythme, durée, timbres), soit élaborée (phrasé, reconnaissance des tempi, des thèmes) ; le troisième est l’identification de l’oeuvre entendue.

On peut ainsi décrire trois types d’amusies correspondant à ces trois niveaux.

Cette question a été très approfondie par l’imagerie fonctionnelle cérébrale.

2- Perception des sons de l’environnement :

Les troubles de la perception des sons de l’environnement sont observés dans plusieurs syndromes, mais constituent rarement une perturbation isolée.

Ces troubles peuvent toucher en théorie différents « niveaux » de traitement, et notamment un niveau perceptif et un niveau sémantique.

Cependant, dans la plupart des observations d’agnosies auditives, les troubles de la perception des sons de l’environnement correspondent à des troubles acoustiques.

Un seul cas d’agnosie associative, à notre connaissance, a été rapporté.

Dans beaucoup d’autres observations, les troubles de la perception des sons de l’environnement ne sont pas décrits ou de façon imprécise.

À partir des diverses observations anatomocliniques, il est difficile de déterminer les structures cérébrales spécifiquement impliquées dans le traitement des sons de l’environnement.

Dans la plupart des observations, des lésions bilatérales corticales ou sous-corticales conduisent à des troubles acoustiques.

Les troubles isolés de la perception des sons de l’environnement sont observés dans le cas d’une lésion unilatérale droite.

Pour certains auteurs, les aires secondaires auraient un rôle plus déterminant que les aires primaires dans le traitement des sons de l’environnement.

Les aires primaires seraient plus particulièrement engagées dans les processus de résolution temporelle, fondamentaux pour la perception des sons verbaux, mais non pour les sons non verbaux.

Cependant, les données anatomocliniques ne permettent pas de confirmer cette hypothèse.

La contribution modeste de la méthode anatomoclinique « classique » (portant sur des « cas uniques ») à la neuropsychologie de la perception des sons de l’environnement, contraste avec les études, relativement nombreuses, reposant sur la méthode des « séries de patients ».

Les principaux travaux consacrés à la perception des sons de l’environnement, réalisés par l’équipe de neurologie de Milan, montrent que les troubles agnosiques consécutifs à des lésions unilatérales des hémisphères cérébraux peuvent porter sur deux niveaux différents, selon la latéralisation de la lésion.

Schnider et al ont rapporté plus récemment le même type de résultats ; ils observent la prédominance d’erreurs sémantiques chez des patients atteints de lésions cérébrales unilatérales gauches.

Ces auteurs ont rapporté, par ailleurs, des troubles acoustiques chez les patients cérébrolésés droits.

Cette étude a permis de préciser les localisations des lésions chez les patients étudiés.

La reconnaissance des sons de l’environnement est affectée lors de lésions bilatérales ou unilatérales gauches ou droites des aires auditives secondaires, mais les profils d’erreurs sont différents selon la localisation hémisphérique des lésions.

Ces profils d’erreurs sont plus nets lors de lésions corticales (régions temporopariétale, précentrale et occipitale) que lors de lésions sous-corticales (ganglion basal, thalamus, capsule interne, substance blanche profonde).

3- Psycholinguistique :

Alors que le signal de parole est caractérisé par sa continuité, la perception du message conduit à sa segmentation en unités discrètes.

Ainsi, la reconnaissance des mots met en jeu un certain nombre d’opérations qui correspondent à différents niveaux de représentation :

– une analyse auditive qui comporte un traitement acoustique suivant la structure temporelle et spectrale du signal acoustique et un traitement phonétique de nature catégorielle mettant en correspondance les indices acoustiques avec les traits phonétiques constitutifs des phonèmes (point d’articulation, voisement, mode d’articulation) ;

– une activation au niveau du lexique phonologique de la représentation phonologique pouvant correspondre à la cible entendue.

Cette étape permet de décider s’il s’agit d’un mot ou d’un non-mot ;

– une analyse sémantique qui assure la compréhension du signal entendu à travers la mise en correspondance de la forme phonologique et des traits sémantiques qui lui sont associés (par exemple : /seRiz/ = végétal + fruit + rouge + rond + sucré…).

Les travaux actuels de la psycholinguistique s’intéressent tout particulièrement à la question du format des unités infralexicales.

S’il était admis jusqu’alors que les unités infralexicales étaient de la taille des phonèmes, les études récentes montrent que les procédures de segmentation sont fortement contraintes par les principes d’organisation et les régularités des langues (par exemple : influence de la structure syllabique en Français).

Elles rendent compte par ailleurs de l’influence du lexique sur des tâches de catégorisation phonétique, ce qui suggère l’existence d’interactions entre unités infralexicales et unités lexicales, et qui conforte les modélisations de type connexionniste.

Un champ de recherche important a pour objet la perception auditive chez le nourrisson.

C – Cortex auditif et rôle des structures sous-corticales :

Le cortex auditif occupe la partie horizontale ou profonde de la première circonvolution temporale (gyrus temporal supérieur).

Sa surface est plus vaste à gauche qu’à droite.

Le cortex auditif primaire (A1) est formé par les deux gyri de Heschl ou circonvolutions temporales transverses, obliques en arrière et en dedans, ou aire 41 de Brodmann.

Cette aire est entourée de toute part par le cortex auditif secondaire (A2), formé en arrière par le planum temporal et en avant par une petite surface innominée et qui s’étend en dedans jusqu’au bord de l’insula. PourVon Economo, seule la partie postéromédiane d’A1 est l’aire primaire qu’il dénomme TC.

Elle est faite de koniocortex granulaire typique. Elle est bordée à la pointe de TC par l’aire TD ou 52 de Brodmann.

L’aire TB ou aire 42 est bordée en bas et en dehors de l’aire 22 ou TA, constamment atteinte dans l’aphasie de Wernicke.

Les travaux de Braak, Galaburda et Pandya, Galaburda et Sanides, ont donné de ces aires une systématisation plus détaillée sur des critères purement cytologiques.

Galaburda et Sanides ont décrit l’aire TpT occupant la partie postérieure de l’aire TA ou 22 à sa fusion avec le cortex pariétal.

À gauche, elle serait dévolue à la perception des sons verbaux.

Rauschecker et al ont remis en question l’opposition cortex visuel qui répond à une disposition parallèle des afférences et cortex auditif qui traditionnellement répond plutôt à une organisation en série.

Ces auteurs ont décrit, chez le singe rhésus (grâce à des études d’exérèse, de stimulation et de traçage), trois aires tonotopiques sur la face supérieure de T1 : l’aire auditive primaire (A1), l’aire caudomédiale (CM), l’aire rostrale (R).

La partie ventrale du corps genouillé médian projette à la fois sur A1 et sur R en ce qui concerne les sons purs, A1 sert de relais pour CM, la partie dorsale du corps genouillé médian projette sur CM en ce qui concerne les sons complexes et de haute fréquence.

Mesulam adhère à cette systématisation :A1 traiterait les sons purs et les hauteurs ; la partie moyenne et antérieure de T1 traiterait les aspects phonétiques spécifiques du langage parlé jusqu’au niveau présémantique, l’aire 21 serait associative, l’aire TpT serait impliquée dans la localisation spatiale de l’origine des sons.

Les structures sous-corticales ont un rôle important dans le traitement des stimuli auditifs, en particulier dans leur analyse élémentaire.

Elles ont en commun l’organisation tonotopique : la fibre nerveuse issue d’une cellule sensorielle cochléaire réceptrice d’une fréquence donnée va faire synapse, dans les étages sus-jacents, avec d’autres cellules nerveuses qui traitent cette même fréquence. Les projections vers le télencéphale sont surtout, mais pas exclusivement, controlatérales.

La localisation du son dans l’espace repose sur la différence internaurale de phase et d’intensité des stimuli qui ne parviennent pas simultanément aux deux oreilles, donc aux noyaux auditifs du tronc cérébral.

Cette fonction localisatrice auditive a été très étudiée chez certains rapaces nocturnes (chouette effraie…), chez qui le noyau équivalent du colliculus inférieur de l’homme possède une organisation neuronale en groupes, correspondant aux différents points de l’espace.

D – Perception auditive et imagerie fonctionnelle cérébrale :

Les techniques d’imagerie fonctionnelle cérébrale ont été, jusqu’à présent, peu utilisées pour étudier les corrélats anatomofonctionnels des troubles centraux de la perception auditive (cf cependant Engelien et al pour une étude en tomographie par émission de positons d’un patient atteint d’agnosie auditive).

L’imagerie fonctionnelle a au contraire permis de décrire l’implication de différentes régions cérébrales dans le traitement des stimuli sonores chez le sujet normal grâce au paradigme des activations.

Schématiquement, deux grands types de techniques ont été utilisés, d’une part celles qui permettent des mesures de débit sanguin cérébral (comme la tomographie par émission de positons [TEP]), et d’autre part les techniques électroencéphalographiques et magnétoencéphalographiques.

1- Études TEP :

Dans des études pionnières utilisant la TEP, Mazziotta et al ont mis en évidence des activations principalement frontotemporales droites lors de la réalisation de différentes tâches impliquant du matériel musical extraits du test de Seashore (mémoire tonale, discrimination de timbres, d’accords musicaux et de séquences de notes).

Pour les séquences de notes, la stratégie du sujet influençait les modifications du débit sanguin cérébral : une stratégie « analytique » entraînait une activation dans les régions temporales postérieures gauches et une stratégie « passive », une augmentation du débit sanguin dans les aires pariétales inférieures et temporo-occipitales droites.

Zatorre et al ont étudié les activations liées à l’écoute mélodique et à la mémorisation d’informations tonales.

Les tâches consistaient à détecter des changements de hauteur, soit entre les deux premières notes d’une séquence mélodique de huit notes, soit entre la première et la dernière note de cette série.

La première tâche entraîne des activations dans le lobe frontal droit, et la seconde des activations beaucoup plus complexes, impliquant notamment les régions frontotemporales droites.

Le travail de Platel et al représente actuellement la seule étude d’activation en TEP consacrée à la perception de différentes composantes de la musique (rythme, timbre, hauteur, identification musicale).

Toutes les tâches provenaient du même matériel (quatre arrangements aléatoires de 30 séquences de notes).

Lors de chaque tâche, 50 %des séquences entendues contenaient des changements de hauteur, de timbre et/ou de rythme, et 50 % de ces séquences pouvaient être reconnues comme un morceau familier.

Le but de ce travail n’était pas de montrer les réseaux fonctionnels communs à ces composantes, mais d’appréhender les activations cérébrales spécifiques à chacun des paramètres étudiés.

Les résultats montrent en effet des activations significatives différenciées pour chacune des tâches : des activations locales dans l’hémisphère gauche pour les tâches d’identification-familiarité (gyrus frontal inférieur et temporal supérieur), et de rythme (aire de Broca et insula), et des activations dans l’hémisphère droit pour la tâche de timbre (cortex frontal médian).

La tâche de hauteur montre un pattern des résultats non attendus, avec des activations spécifiques dans l’hémisphère gauche (cunéus et précunéus) interprétées comme le reflet de l’utilisation d’une stratégie d’imagerie mentale.

L’étude princeps effectuée en TEP ayant trait spécifiquement à la perception des sons de l’environnement est celle d’Engelien et al.

Elle porte sur six sujets sains et sur un patient, victime de deux lésions cérébrales consécutives, la première dans l’hémisphère gauche (gyrus frontal, gyri centraux, gyrus temporal supérieur, gyrus supramarginal, cortex auditif primaire) et la seconde dans l’hémisphère droit (partie postérieure du gyrus temporal supérieur incluant le gyrus de Heschl et les parties postérieure et ventrale du cortex insulaire).

Le premier examen neuropsychologique, 2 ans après la deuxième lésion, a révélé une « agnosie auditive complète » : le patient ne pouvait plus reconnaître des sons de l’environnement, ni les sons du langage.

En revanche, il était capable de discriminer les stimuli sonores (jugement « pareil-différent »).

Un deuxième examen, 8 ans après la deuxième lésion, a montré la persistance des troubles de la compréhension du langage et le recouvrement de la capacité à discriminer et à identifier des sons de l’environnement.

L’étude TEP, réalisée à ce stade, comprend un paradigme composé de trois épreuves (pour les sujets sains, comme pour le patient) : une tâche de référence pendant laquelle les sujets ont les yeux fermés et où aucune consigne n’est donnée, une tâche passive pendant laquelle les sujets écoutent les sons de l’environnement sans aucune autre consigne, et une tâche active de catégorisation sémantique pendant laquelle les sujets écoutent des sons de l’environnement et doivent décider s’ils appartiennent à une catégorie de sons donnée.

Chez le groupe de sujets sains, dans la comparaison « tâche passive versus tâche de référence », des activations bilatérales (plus marquées à droite) du cortex auditif primaire et secondaire (aires 41, 42, 22 et 39) sont observées, ainsi que dans le thalamus, le cortex insulaire antérieur, et le cortex pariétal inférieur (aire 40).

Des déactivations sont également observées dans les régions occipitales bilatérales, le cortex temporo-occipital et le cunéus droit, ainsi que dans les régions temporopariétales, le cortex cingulaire antérieur, le cortex sensorimoteur et le gyrus frontal inférieur de l’hémisphère gauche.

Dans la comparaison « tâche de catégorisation sémantique versus tâche passive », des activations sont observées uniquement dans l’hémisphère gauche (régions frontales et préfrontales, pariétales, lobe temporal moyen, cortex prémoteur et cortex cingulaire antérieur).

Des déactivations sont également observées dans le cortex cingulaire postérieur, le gyrus précentral droit, le noyau caudé et l’opercule frontal gauches.

Chez le patient, dans la comparaison « tâche passive versus tâche de référence », les mêmes activations que chez le groupe de sujets sains sont observées, avec également une prédominance des activations dans l’hémisphère droit.

Des déactivations sont également observées dans les régions bilatérales temporo-occipitales (aires 37 et 39), les cortex frontopariétal (aire 31), temporal inférieur (aire 20) et cingulaire postérieur et le précunéus.

Dans la comparaison « tâche de catégorisation sémantique versus tâche passive », des activations bilatérales dans les régions frontales, préfrontales, pariétales et les gyri temporaux médians sont observées ainsi que dans les gyri cingulaires gauches et les régions droites du noyau caudé et du cervelet.

Aucune déactivation n’est observée dans cette comparaison.

Cette étude montre donc une dominance de l’hémisphère droit dans la condition d’écoute passive des sons de l’environnement et une dominance de l’hémisphère gauche dans le traitement sémantique des sons de l’environnement chez des sujets sains.

Cette dominance gauche n’est pas observée chez le patient, ce qui suggère une réorganisation neuronale liée à la pathologie.

Dans une seconde étude, Engelien et al ont comparé les modifications métaboliques impliquées lors de l’écoute passive de sons de l’environnement et de sons non signifiants (des sons naturels dont le spectre a été modifié).

Les comparaisons entre l’écoute des deux types de sons et une tâche de référence (dans laquelle les sujets ont les yeux fermés et où aucune consigne n’est donnée) conduisent à des activations similaires dans des régions frontales et temporopariétales de l’hémisphère cérébral droit, les régions du noyau caudé droit et les régions bilatérales du cervelet.

La comparaison entre l’écoute passive des sons de l’environnement et celle des sons altérés montre des activations dans la condition « sons de l’environnement » dans des régions sous-corticales gauches, incluant le noyau caudé et l’hippocampe.

Ces activations sous-corticales sont interprétées comme le reflet de l’implication de processus automatiques dans le traitement de ces sons familiers.

La plupart des études TEP consacrées à la perception et la compréhension des sons du langage ont confirmé le rôle prédominant de l’hémisphère gauche, notamment lors de la mise en jeu de processus phonologiques.

Démonet a proposé une synthèse des études qui montrent toutes la présence d’augmentations de débit sanguin cérébral dans des régions localisées dans le voisinage immédiat de la scissure de Sylvius de l’hémisphère cérébral gauche.

Les régions concernées sont : le cortex prémoteur inférieur (proche de l’aire de Broca), le cortex temporal supérieur postérieur et moyen (proche de l’aire de Wernicke), le lobule pariétal inférieur (proche du gyrus supramarginal et de l’opercule pariétal).

Toutefois, des différences sont observées d’une étude à l’autre, attribuées, la plupart du temps, aux différences de tâches utilisées (certaines comparaisons pouvant « soustraire » une composante commune à deux tâches).

L’activation du gyrus supramarginal gauche est variable. Cette aire pourrait avoir un rôle spécifique dans la mémoire de travail verbale, et plus particulièrement dans le stockage phonologique.

L’activation de l’aire de Broca (ou proche de l’aire de Broca) est observée de façon plus constante.

Cette zone, étant affectée à la programmation motrice, serait impliquée dans la transposition des percepts auditifs en représentations motrices (conformément à la théorie motrice de la parole).

De plus, elle assurerait le maintien des informations en mémoire de travail, en particulier la récapitulation subvocale de la boucle articulatoire. Elle aurait, dans ce cadre, un rôle complémentaire à celui du gyrus supramarginal.

Concernant les aspects lexicosémantiques, différentes études montrent que ces processus engagent un réseau neuronal très étendu, comprenant les aires associatives temporales, pariétales et préfrontales multimodales gauches.

De plus, l’activation de régions de l’hémisphère droit apparaît essentiellement dans le cadre d’études de textes. Belin et al ont étudié, chez sept sujets sains, les activations provoquées par la discrimination de l’intensité des sons.

Ils ont constaté deux régions corticales activées : frontopariétale droite, qui traduirait un facteur attentionnel, et une partie du cortex auditif secondaire.

2- Techniques électroencéphalographiques :

Les techniques électroencéphalographiques (les potentiels évoqués, l’électroencéphalographie [EEG] quantitative, l’event-related desynchronization [ERD]) et magnétoencéphalographiques sont plus limitées que la TEP au plan de la résolution spatiale, mais présentent au contraire une excellente résolution temporelle, ce qui les rend particulièrement adaptées à l’étude de la perception auditive, du fait de ses caractéristiques intrinsèquement temporelles et séquentielles.

En utilisant la techniques d’EEG quantitative, Auzou et al ont proposé à des sujets sains des tâches d’écoute et de discrimination de paires de sons musicaux par la hauteur ou par le timbre.

L’écoute passive de sons musicaux entraînait des modifications électrophysiologiques dans les régions temporales, avec une prédominance droite.

Les tâches de discrimination, de timbre ou de hauteur, renforçaient cette polarité de l’hémisphère droit et l’implication du lobe frontal.

Les recherches effectuées avec la technique de la magnétoencéphalographie dans le domaine auditif ont confirmé, avec une très grande précision, l’organisation tonotopique du cortex auditif.

Avec cette technique, Pantev et al ont montré que l’organisation tonotopique du cortex auditif est modifiée par l’expérience musicale, d’autant plus fortement que cette pratique est précoce.

Ainsi, la localisation des réponses du cortex auditif à des sons purs ou complexes est identique chez des sujets non musiciens, alors qu’elle se différencie distinctement pour des sujets musiciens.

La réponse du cortex auditif des musiciens est d’autant plus ample lorsqu’ils présentent la capacité d’« oreille absolue ».

En utilisant la technique des potentiels évoqués, Besson et al ont montré que le traitement des aspects mélodique et harmonique d’une phrase musicale est associé à l’occurrence d’une composante de polarité positive dont le maximum d’amplitude se situe 500 ms environ après la présentation d’une note ou d’un accord peu attendu en fonction du contexte musical.

Ces modifications électrophysiologiques sont différentes chez les musiciens et les non-musiciens, le profil observé indiquant que les musiciens sont plus rapides que les non-musiciens pour détecter les incongruités.

Ces résultats contrastent avec ceux de nombreux travaux qui ont montré que le traitement sémantique d’un mot est associé, au niveau électrophysiologique, à l’occurrence d’une composante spécifique des potentiels liés à l’événement, de polarité négative, et dont le maximum d’amplitude se situe 400 ms environ après le début de la présentation du mot.

Les premiers travaux sur la perception des sons de l’environnement réalisés avec la méthode des potentiels évoqués avaient pour objectif principal de comparer ces potentiels lors de la présentation de sons verbaux et non verbaux.

Cette comparaison a permis de mettre en évidence une asymétrie hémisphérique de la distribution des potentiels selon la nature verbale ou non verbale des stimulations sonores.

L’étude de Matsumiya et al montre une dominance hémisphérique gauche (rapport hémisphère gauche/hémisphère droit [HG/HD]) pour les mots par rapport aux sons de l’environnement, uniquement quand un traitement sémantique est demandé sur ces mots.

Cependant, les auteurs montrent également une dominance hémisphérique gauche pour les sons de l’environnement quand un traitement sémantique est demandé, en comparaison à une situation où « aucun » traitement sémantique n’est demandé.

Ces résultats vont donc dans le sens d’une dominance de l’hémisphère gauche quand un traitement sémantique est demandé aux sujets, que ce soit sur des mots ou sur des sons de l’environnement.

Cependant, le « poids » de cette dominance hémisphérique gauche paraît plus important pour les mots que pour les sons de l’environnement.

Cependant, l’étude de Van Petten et Rheinfelder, plus récente, montre que la composante N400, supposée être impliquée dans les processus sémantiques (et d’incongruité sémantique en particulier), a une distribution différente pour la présentation des mots du lexique et celle des sons de l’environnement.

Tandis que cette composante sémantique est observée dans les régions postérieures droites pour les mots, elle est observée dans les régions postérieures gauches pour les sons.

Selon ces auteurs, et au vu de la littérature concernant les générateurs de la N400 évoquée pour des mots, la composante observée dans les régions postérieures droites aurait des générateurs dans l’hémisphère gauche et celle observée dans les régions postérieures gauches aurait des générateurs dans l’hémisphère droit.

L’opération cognitive consistant à détecter une incongruité sémantique pour la présentation des sons de l’environnement pourrait donc dépendre davantage des régions postérieures droites et, pour la présentation des mots, des régions postérieures gauches.

Les traitements de plus bas niveau impliqués dans la perception des sons de l’environnement semblent moins dépendre de régions de l’hémisphère gauche.

En effet, Celsis et al ont comparé les potentiels évoqués pendant la perception des mêmes sons « s » et « f » dans deux contextes différents : un contexte « langue », dans lequel ces sons étaient suivis de la voyelle i et présentés avec d’autres syllabes (vi, zi), et un contexte « sons de l’environnement », dans lequel les sons étaient suivis d’un extrait de son de l’environnement (bruit de verre brisé et bruit de sirène, respectivement), et présentés avec d’autres sons de l’environnement (froissement de papier, eau qui coule).

Les sujets devaient détecter les sons cibles « s » et « f ».

Les résultats montrent une différence de potentiels entre les deux contextes entre 250 et 350 ms, dans le sens d’une latéralisation gauche pour le contexte « langue », ce qui suggère une dominance gauche dans la détection de phonèmes cibles et non dans le traitement de ces sons dans le contexte « sons » de l’environnement.

L’ERD est caractérisé par une résolution temporelle précise et permet de suivre le décours temporel des modifications électroencéphalographiques et ainsi de distinguer les différentes étapes impliquées dans le processus étudié.

De plus, cette méthode intègre une normalisation en pourcentage des variations électroencéphalographiques par rapport à une ligne de base : des désynchronisations et des synchronisations qui correspondent respectivement à des activations et des déactivations.

Avec cette méthode, Lebrun et al ont étudié les profils électrophysiologiques spécifiques de l’identification des mots et des sons de l’environnement.

Seize sujets ont été exposés deux fois à la même séquence de 200 stimuli sonores (50 mots, 50 non-mots, 50 sons de l’environnement familiers, 50 sons non familiers).

Pendant une séquence, les sujets devaient détecter des sons familiers et des mots, pendant l’autre, des sons non familiers et des non-mots.

Vingt périodes de 125 ms d’EEG correspondant à l’écoute de chaque type de stimulation (deux avant, huit pendant et dix après) ont été analysées.

La comparaison « mots versus sons familiers » conduit à une différence d’activation dans les régions temporales droites pendant stimulation.

La comparaison des stimuli avec une ligne de base (calculée avant stimulation) précise que ces régions sont davantage activées lors de l’écoute de sons familiers.

La comparaison « sons familiers versus sons non familiers » conduit à des différences dans de nombreuses régions cérébrales, à la fin et après stimulation.

La comparaison des stimuli avec une ligne de base précise que ces différences sont dues à des activations plus longues de ces régions se prolongeant après l’écoute des sons familiers et à des déactivations précoces apparaissant après l’écoute des sons non familiers.

La comparaison « mots versus non-mots » conduit à des différences dans les régions postérieures gauches et frontales bilatérales après stimulation.

La comparaison des stimuli avec une ligne de base conduit au même profil que précédemment : activation après les mots et déactivation après les non-mots.

Ces résultats suggèrent une distinction entre les structures cérébrales impliquées dans l’identification des mots et des sons de l’environnement, avec un rôle prédominant des régions postérieures droites dans celle des sons de l’environnement.

Ils montrent, d’autre part, l’apparition d’une déactivation dès la fin d’un son non familier verbal ou non verbal.

Ces synchronisations non attendues faisant suite à l’écoute de stimuli non familiers pouvaient refléter la prise de conscience de la « non-familiarité » de ces sons, ce qui induirait l’inhibition de représentations sémantiques et épisodiques ne pouvant pas être associés à ces sons sans signification.

Examens neuropsychologiques :

Malgré les particularités que nous reverrons, il est possible de décrire un plan d’examen systématique commun aux diverses formes cliniques.

A – Exploration de la perception des sons verbaux :

1- Analyse phonétique :

Les consonnes sont nécessairement présentées en contexte syllabique (en position initiale C + V, par exemple : pa ; ou en position intervocalique V + C + V par exemple : apa).

* Épreuves en « différé » :

Discrimination : deux syllabes séparées par un intervalle de 2 secondes sont énoncées successivement.

Le patient doit indiquer si les deux items entendus sont identiques ou non. Identification : une syllabe est présentée oralement.

Le patient doit indiquer, dans un choix multiple de deux ou trois syllabes écrites, celle qui correspond à l’item entendu.

Le protocole peut intégrer différentes variables expérimentales dans le choix des syllabes proposées : opposition suivant plusieurs traits phonétiques (par exemple : pa / va) ou un seul trait phonétique (par exemple : pa/ta – lieu d’articulation – ; pa/ba – sonorité).

* Épreuves « on-line » :

Discrimination : une suite de huit syllabes, comportant sept syllabes identiques et une syllabe cible différente est présentée oralement. Cette dernière apparaît soit en position 4, 5 ou 6.

Le patient doit appuyer sur une touche dès qu’il perçoit la syllabe différente.

La proximité phonétique entre les syllabes varie de un (par exemple : pa-papa- pa-pa-ba-pa-pa) à plusieurs traits suivant les séries (par exemple : fa-fa-fa-na-fa-fa-fa-fa).

2- Accès lexical :

* Épreuves « en différé » :

Décision lexicale : une liste de stimuli comportant des mots et des non-mots est présentée oralement.

Le patient doit indiquer pour chaque item entendu s’il s’agit d’un mot de la langue ou non (par exemple : épine-soldat-brupa-…).

* Épreuves « on-line » :

Décision lexicale (ou reconnaissance de la forme des mots) : une suite de cinq stimuli comportant des mots et des non-mots est présentée oralement.

Le patient doit indiquer si le troisième item qui est précédé d’un « bip » sonore est un mot de la langue ou non.

La liste proposée par Grosjean et al permet d’étudier les variables de longueur (mono- et bisyllabique), et de fréquence lexicale (deux classes de fréquence).

De plus, les variables suivantes, classe syntaxique, concrétude et point d’unicité phonologique, sont contrôlées (par exemple : pierre-soleil- # rat-couteau-coeur).

3- Accès sémantique :

Épreuves de synonymie : des paires de mots partageant ou non des liens de synonymie sont présentées oralement.

Le patient doit indiquer pour chaque paire si ce lien est présent.

Par exemple : horloge-pendule ; valise-épine.

Dans les cas de perturbation spécifique à la modalité auditive, des épreuves similaires proposées en modalité écrite sont réussies.

4- Syndromes cognitifs :

La description des troubles de la perception du langage spécifique à la modalité auditive a longtemps été restreinte au syndrome de surdité verbale pure décrit par Lichtheim en 1885.

L’approche cognitive, faisant référence au modèle à trois étapes exposé cidessous, a montré que l’atteinte de la compréhension n’était pas unitaire et qu’elle pouvait affecter de façon indépendante chacun des niveaux du traitement de l’information auditive.

Trois syndromes cognitifs ont été décrits :

– surdité au son des mots : elle correspond, dans la terminologie classique, au syndrome de surdité verbale pure décrit par Lichtheim.

Elle résulte d’une perturbation du système d’analyse auditive des sons verbaux qui se manifeste par de nombreuses erreurs lors d’épreuves de répétition ou d’écriture sous dictée et lors de tâches de discrimination et d’identification phonémique.

La compréhension est améliorée par la lecture labiale ou la connaissance du thème de la conversation ;

– surdité à la forme des mots : elle résulte d’un trouble d’activation de la représentation phonologique (au niveau du lexique phonologique d’entrée).

Les épreuves de discrimination de phonèmes sont correctes en raison de la fonctionnalité du système d’analyse auditive.

Le patient échoue à des épreuves de décision lexicale en modalité auditive, alors qu’il réussit en modalité écrite.

Des erreurs entre mots phonologiquement proches sont observées lors des tentatives de répétition ;

– surdité au sens des mots : c’est un tableau clinique qui avait été décrit par Bramwell et plus récemment par Kohn et Friedman.

Ce syndrome résulte d’un déficit d’accès au lexique sémantique.

Les deux premiers niveaux sont fonctionnels, le patient réussit les épreuves de discrimination phonémique et de décision lexicale.

La compréhension des mots entendus est altérée alors que la répétition est possible.

En revanche, sur présentation écrite, la compréhension est bonne.

L’atteinte du dernier niveau, système sémantique, correspond à une dégradation des représentations sémantiques.

Ce dernier syndrome ne constitue pas un trouble de compréhension spécifique à la modalité auditive car la compréhension est défectueuse quelle que soit la modalité de présentation.

Des troubles sont également présents en production orale ou écrite.

Ce syndrome a été notamment décrit dans les cas de démence sémantique.

B – Exploration des sons de l’environnement :

Il est demandé au sujet d’identifier des bruits non verbaux, non musicaux, enregistrés sur une bande magnétique et présentés au casque en écoute binaurale.

Ces stimuli doivent être calibrés en intensité et en fréquence.

Le protocole Montréal-Toulouse d’évaluation des gnosies auditives (PEGA) contient 12 items comprenant des bruits divers et des instruments de musique.

Le patient donne sa réponse dans un choix multiple d’images.

Parfois, tous les stimuli sont confondus et perçus comme des sons indifférenciés.

Ailleurs, les bruits ne sont pas reconnus, dénommés de façon inexacte, ailleurs encore ils semblent déformés, inhabituels.

C – Troubles de la perception des sons musicaux :

Des épreuves plus fines sont possibles en ce qui concerne la perception des sons musicaux.Wertheim et Botez ont élaboré un plan d’investigation des fonctions musicales, utile mais de passation longue et difficile.

Ces auteurs ont également établi une classification des personnes en quatre catégories :

– personnes aimant la musique bien que n’ayant pas fait d’études musicales ;

– musiciens par profession ne connaissant pas la théorie ni la notation musicale (certains musiciens de variétés) ;

– musiciens en dilettante et professionnels ayant une vaste culture musicale ;

– sujets manquant de musicalité élémentaire.

Nous avons proposé de distinguer dans les troubles de la perception de la musique d’origine neurologique trois niveaux de désintégration.

Lorsque le patient confond les différentes sortes de sons, et que par conséquent la musique n’est pas reconnue comme telle, on parle de trouble du premier niveau, que l’on pourrait appeler « absence de décision musicale » par analogie avec la « décision lexicale » de l’aphasiologie.

Dans le deuxième niveau de désintégration, la musique est bien reconnue en tant que telle, mais le patient commet des erreurs dans l’appréciation structurale des hauteurs, de l’intensité, de la durée, des timbres, des qualités esthétiques, les sons devenant inharmonieux, pénibles, désagréables.

L’exploration de ce qu’on appelle plus volontiers « amusie » qu’agnosie auditive requiert des épreuves spéciales qui ont en commun certaines formulations : on demande au sujet de dire si les séquences entendues sont pareilles ou pas ; on procède de la même façon en ce qui concerne les hauteurs, les intensités, les durées des sons présentés ; on fait détecter les erreurs introduites dans des mélodies connues, chanter en imitation ou spontanément, reproduire des rythmes en tapant sur une table…

D’autres procédés d’examen nécessitent des laboratoires spécialisés (par exemple : la perception de sons musicaux dénués de fondamentale).

L’impossibilité d’identifier une mélodie connue constitue le troisième niveau de désintégration.

Il peut s’agir d’un trouble isolé, sans atteinte des autres capacités musicales.

L’exploration des fonctions musicales comprend encore la capacité de distinguer différents genres de musique (religieuse, militaire, opéra, danse), l’écriture et la lecture musicales.

Peretz sépare dans le traitement temporel de la musique « mètre » et « rythme ».

Distinguer des séquences musicales à trois temps (valse) ou à deux temps (marche) constitue une « tâche métrique ».

Distinguer une erreur de longueur d’une note dans une séquence est une tâche rythmique.

Pour cet auteur, des dissociations sont observables entre ces deux capacités.

Suite

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.