293
UNIVERSITÉ DE LA MÉDITERRANÉE FACULTE DE MÉDECINE DE MARSEILLE THESE En vue de l’obtention du grade de DOCTEUR DE L’UNIVERSITÉ de la MÉDITERRANÉE Formation doctorale : Neurosciences Présentée et soutenue publiquement par Céline MARIE Le 22 Janvier 2010 Influence de l’expertise musicale et linguistique sur le traitement des sons linguistiques et non-linguistiques Membres du jury Dr. Sonja KOTZ, MPI, Leipzig, Allemagne. Rapporteur Prof. Séverine SAMSON, Université Charles de Gaulle-Lille 3. Rapporteur Dr. Minna HUOTILAINEN, Université d’Helsinki, Finlande. Examinateur Dr. Bénédicte POULIN-CHARRONNAT, Université de Bourgogne, Dijon. Examinateur Dr. Catherine LIEGEOIS-CHAUVEL, Université de la Méditerranée, Marseille. Examinateur Dr. Mireille BESSON, INCM-CNRS, Marseille. Directeur

UNIVERSITÉ DE LA MÉDITERRANÉE FACULTE DE MÉDECINE DE … · RESUME Le but de ce travail est d’étudier l’influence de l’expertise (musicale ou linguistique) sur le traitement

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

  • UNIVERSITÉ DE LA MÉDITERRANÉE

    FACULTE DE MÉDECINE DE MARSEILLE

    THESE

    En vue de l’obtention du grade de

    DOCTEUR DE L’UNIVERSITÉ de la MÉDITERRANÉE

    Formation doctorale : Neurosciences

    Présentée et soutenue publiquement par

    Céline MARIE

    Le 22 Janvier 2010

    Influence de l’expertise musicale et linguistique

    sur le traitement des sons linguistiques

    et non-linguistiques

    Membres du jury

    Dr. Sonja KOTZ, MPI, Leipzig, Allemagne. Rapporteur Prof. Séverine SAMSON, Université Charles de Gaulle-Lille 3. Rapporteur Dr. Minna HUOTILAINEN, Université d’Helsinki, Finlande. Examinateur Dr. Bénédicte POULIN-CHARRONNAT, Université de Bourgogne, Dijon. Examinateur Dr. Catherine LIEGEOIS-CHAUVEL, Université de la Méditerranée, Marseille. Examinateur Dr. Mireille BESSON, INCM-CNRS, Marseille. Directeur

  • UNIVERSITÉ DE LA MÉDITERRANÉE

    FACULTE DE MÉDECINE DE MARSEILLE

    THESE

    En vue de l’obtention du grade de

    DOCTEUR DE L’UNIVERSITÉ de la MÉDITERRANÉE

    Formation doctorale : Neurosciences

    Présentée et soutenue publiquement par

    Céline MARIE

    Le 22 Janvier 2010

    Influence de l’expertise musicale et linguistique

    sur le traitement des sons linguistiques

    et non-linguistiques

    Membres du jury

    Dr. Sonja KOTZ, MPI, Leipzig, Allemagne. Rapporteur Prof. Séverine SAMSON, Université Charles de Gaulle-Lille 3. Rapporteur Dr. Minna HUOTILAINEN, Université d’Helsinki, Finlande. Examinateur Dr. Bénédicte POULIN-CHARRONNAT, Université de Bourgogne, Dijon. Examinateur Dr. Catherine LIEGEOIS-CHAUVEL, Université de la Méditerranée, Marseille. Examinateur Dr. Mireille BESSON, INCM-CNRS, Marseille. Directeur

    1

  • RESUME

    Le but de ce travail est d’étudier l’influence de l’expertise (musicale ou linguistique) sur le

    traitement des sons linguistiques et non-linguistiques chez l’adulte sain. Plus précisément, il s’agit

    de cerner les effets de transfert d’apprentissage d’un domaine d'expertise vers un autre domaine afin

    de tester la spécificité des processus qui sous-tendent le traitement de la musique et du langage et de

    mieux comprendre les phénomènes de plasticité induits par l’expertise. Pour étudier ces questions,

    j’ai conduit plusieurs expériences, basées sur l’utilisation conjointe des méthodes issues de la

    psychologie expérimentale (Temps de Réaction et pourcentage d’erreurs) et de l’électrophysiologie

    chez l’homme (Potentiels Evoqués). En comparant des musiciens et des non-musiciens, j’ai d’abord

    testé les effets de transfert d’apprentissage de la musique sur le traitement du mètre et de la

    sémantique dans le langage (Expérience 1), ainsi que sur la phonologie et les variations de hauteur

    tonale (Expérience 2). Les résultats montrent que l'expertise musicale améliore la perception des

    aspects métriques du langage parlé et réduit les interférences liées au traitement sémantique. Ils

    soulignent également que l'expertise musicale améliore la discrimination de variations tonales et

    phonologiques dans une langue à tons inconnue des participants: le Mandarin. Dans une troisième

    étude j’ai testé l’hypothèse inverse, celle d’un transfert d’apprentissage du langage vers des sons

    non-linguistiques. Pour ce faire, j’ai comparé le traitement pré-attentif et attentif de variations de

    durée, de fréquence et d’intensité de sons non-linguistiques chez des locuteurs d’une langue à

    quantité, le Finnois, et chez des Français. Les résultats montrent que les participants Finlandais sont

    plus sensibles aux variations de durée de sons non-linguistiques que les participants Français. En

    incluant un groupe de sujets musiciens Français à cette étude, j’ai également pu comparer

    l’influence de l’expertise linguistique et de l’expertise musicale. Les résultats révèlent une influence

    similaire de ces deux types d’expertise sur le traitement des variations de durée. Enfin, les résultats

    de deux études visant à comparer les processus conceptuels/sémiotiques impliqués dans l’analyse

    de sons de l’environnement et de sons musicaux à ceux impliqués dans l’analyse de sons du

    langage, révèlent des similarités dans les corrélats électrophysiologiques (N400) associés aux

    différents types de sons. Deux interprétations complémentaires, reposant sur la mise en jeu d’effets

    « bottom-up » et « top-down », sont proposées pour rendre compte des effets de transfert

    d’apprentissage.

    2

  • ABSTRACT

    The aim of this work is to study the influence of expertise (musical and linguistic) on the

    processing of linguistics and non-linguistics sounds in healthy adults. More precisely, the goal is to

    examine the transfer of training effects from one domain of expertise to another domain in order to

    test the specificity of the processes underlying music and language processing as well as the effects

    of plasticity induced by expertise. To address these questions, I conducted several experiments

    based on the use of methods from experimental psychology (Reaction Times and error rates) and

    from human electrophysiology (Evoked Potentials). By comparing musicians and non-musicians, I

    first tested transfer of training effects from music to meter and semantic processing in language

    (Experiment 1), and to phonology and pitch variations (Experiment 2). Results showed, first, that

    musical expertise improves metrical speech processing while reducing interferences with semantic

    processing. Second, they showed that musical expertise improves the discrimination of tonal and

    phonological variations in a tone language unknown to the participants, Mandarin. In a third study I

    tested the reverse hypothesis of transfer of training from language to the processing of non-

    linguistics sounds. To this end, I compared the pre-attentive and attentive processing of duration,

    frequency and intensity changes in non-speech sounds by Finns, speakers of a quantity language,

    and by French. Results showed a positive transfer of training from the expertise of Finns to process

    phoneme duration in their native language to the processing of duration changes in non-speech

    sounds. I also compared the influence of linguistic and musical expertise by including a group of

    French musicians. Results revealed similar effects of linguistic and musical expertise on the

    processing of changes in duration. Finally, in two other studies, we compared the conceptual

    processes involved in the analysis of environmental sounds and musical sounds with those involved

    in the analysis of speech sounds, always considering the effects of musical expertise. Results

    revealed similarities in the electrophysiological correlates (N400) of semiotic processing for these

    different types of sounds. Two complementary interpretations, relying on bottom-up and top-down

    effects, are proposed to account for this set of results on transfer of training effects.

    3

  • REMERCIEMENTS

    Mes premiers reMERCIEments vont à Mireille Besson, ma directrice. Sa confiance et ses

    encouragements sans failles m'ont toujours soutenu dans la réalisation de ce travail. Sa motivation

    communicative et son énergie époustouflante ont largement contribué à ce que ces années de thèse

    passent à une vitesse folle et se concrétisent en ce manuscrit. Je la remercie pour m'avoir aidé à

    surmonter mes doutes...

    Je reMERCIE les membres de mon jury de thèse qui ont accepté de lire ce travail et de

    l’évaluer, ainsi que tous les participants musiciens, non-musiciens, Français, Finnois et Thaïlandais

    qui ont accepté de porter ce fameux «bonnet de bain à électrodes».

    Mes amis ont beaucoup contribué à ce que je conserve ma « forme », physique et

    psychologique. Ils étaient là pour me faire rire et me soutenir dans les moments difficiles.

    A Marseille, MERCI à Clémence, Lilou, Julie et Clément qui sont mes complices de vie, ils

    égayent chaque jour mon quotidien et constituent ma première protection antimorosité. Il me sera

    très difficile de devoir m'éloigner de Marseille sans les emmener dans mes bagages... MERCI

    également à Juliette, Marie, Romain, Taktak & Sandrine, Mathieu, Tanguy, Mika, Ben, tonton Seb et

    les Skaputes, pour tous ces bons moments passés ensemble et ces nombreuses soirées aux quatre

    coins de la ville.

    A Avignon, MERCI à Pelu & Dory, Maud & Yo, Sandy & Nara, TomTom, Ptit Nico & Peggy,

    Oriane, Grand Nico, Léo & Pam, Yanni & Julia, Jé & Maï, Chico... bref, aux Pirfù qui constituent

    ma famille de cœur et de musique depuis de nombreuses années. Pendant ces 5 années que j’ai

    passées à Marseille, les bébés ont fleuri dans cette grande famille, alors je les remercie eux aussi

    pour avoir contribué à créer encore plus de bonheur: Zoé, Maëlle ma filleule et sa sœur Sofia,

    Anouk, Lilou, Tilio, et ceux, en préparation, qui n'ont pas encore pointé leur petit bout de nez!

    Toujours à Avignon, MERCI à Laurent pour avoir accepté de partager ces bons moments de

    concerts, expos, spectacles et performances à l’Akwaba et pour avoir accompagné mes premiers

    pas dans cette thèse. MERCI à Marion, Romain et Charlène pour ces regroupements rythmés, inoubliables, et à Alicia.

    Un grand MERCI à tous les membres de l'équipe L2M, présents ou passés, pour avoir créé

    une ambiance de travail si conviviale, confortable et amicale, et pour toutes ces discussions

    enrichissantes en réunion d'équipe et pendant les retraites : Mitsuko Aramaki, Daniele Schön, Jean-

    luc Velay, Marieke Longcamp, Aurélie Lagarrigue, Jean Vion-Dury, Michel Cermolacce, Jean-

    Arthur Micoulaud, Aline Frey, Wiebke Trost, Jérome Daltrozzo, Dee Bolberg, Chizuru Deguchi,

    Vera Tsogli, Michel Habbib.

    Je reMERCIE également Solvy Ystad et Richard Kronland-Martinet pour leurs conseils

    précieux en acoustique, ainsi que tous les membres de l’INCM, étudiants, chercheurs et personnels

    administratifs, qui travaillent ou ont travaillé dans le labo et qui ont contribué de près ou de loin,

    de par leurs compétences ou leur bonne humeur, à l'aboutissement de ce travail.

    MERCI et à Teija Kujala et Lilli Kimppa pour m’avoir reçu si chaleureusement au CBRU,

    en Finlande et aidée lorsque j’en ai eu besoin...

    Enfin, une « dédicace » particulière à mes très chers colocataires de bureau Clément

    François et Julie Chobert qui ont pris une place très importante dans ma vie, au laboratoire et à

    l’extérieur ! MERCI à vous deux pour mille choses que je ne pourrais malheureusement pas

    détailler ici, mais qui justifient la chance que j’ai eue d’avoir fait votre connaissance dès ma 1ière

    année de thèse.

    Ma famille, mes chers parents, ma très chère sœur et TofTof sont les derniers que je

    remercie, mais ils savent à quel point leur présence a tellement compté pendant ces années de thèse.

    MERCI, MERCI et encore MERCI d’avoir été là !

    Pour Papé Coco et à Titou.

    4

  • SOMMAIRE

    PARTIE 1: PROBLEMATIQUE et CADRE THEORIQUE........ 9

    Problématique......................................................................................................... 10

    Chapitre I. Présentation de la modalité auditive et de la physiologie de

    l’audition.................................................................................................................. 15

    A. Le système auditif périphérique ............................................................................................... 15

    1) L’oreille externe

    2) L’oreille moyenne

    3) L’oreille interne

    a. La cochlée

    b. La tonotopie

    c. L’organe de Corti

    B. Le système auditif central.......................................................................................................... 19

    1) Le croisement des voies auditives

    2) Les voies auditives descendantes /efférentes

    3) Quelques rappels

    Chapitre II. Les méthodes d’imagerie cérébrale........................................... 23

    A. Les méthodes électromagnétiques ........................................................................................... 23

    1) Les Potentiels Evoqués (PEs)

    2) La Magnétoencéphalographie (MEG)

    B. Les méthodes métaboliques ...................................................................................................... 30

    1) La Tomographie par Emission de Positrons (TEP)

    2) L’Imagerie par Résonance Magnétique anatomique (IRM) et fonctionnelle (IRMf)

    Chapitre III. Influence de l’expertise musicale sur le traitement des

    sons............................................................................................................................ 35

    A. Expertise musicale et plasticité cérébrale ............................................................................... 35

    5

  • B. Traitement des paramètres acoustiques de sons purs ou harmoniques présentés de manière

    isolée.................................................................................................................................................. 38

    1) Traitement préattentif

    2) Traitement attentif

    C. Traitement des paramètres acoustiques des sons dans un contexte musical......................... 44

    1) Traitement préattentif de la musique

    2) Traitement attentif de la musique

    Chapitre IV. Influence de l’expertise musicale sur le traitement des sons

    linguistiques : transfert d’apprentissage......................................................... 52

    A. Bases structurales du langage parlé ........................................................................................ 52

    1) La phonologie et la prosodie

    2) La sémantique

    3) Le rôle des indices prosodiques dans les langues à tons et à quantité

    a. Les langues à tons

    b. Les langues à quantité

    B. Hypothèse d’un transfert d’apprentissage entre musique et langage .................................. 56

    C. Transfert d’apprentissage de la musique vers le langage ...................................................... 60

    1) Influence de l’expertise musicale sur le traitement de mots isolés

    a. Traitement préattentif

    b. Traitement attentif

    2) Influence de l’expertise musicale sur le traitement de mots dans le contexte d’une phrase

    Chapitre V. Influence de la langue maternelle sur le traitement des sons

    linguistiques et non-linguistiques..................................................................... 68

    A. Influence de la langue maternelle sur le traitement des sons linguistiques ......................... 68

    1) Traitement préattentif

    2) Traitement attentif

    B. Influence de la langue maternelle sur le traitement des sons non-linguistiques................... 73

    1) Sons purs ou harmoniques présentés de manière isolée: traitements préattentif et attentif

    2) Influence de la langue maternelle sur la création musicale.

    6

  • PARTIE 2: LA METHODE DES POTENTIELS EVOQUES.... 77

    I. Historique de l'EEG ........................................................................................ 78

    II. Principes physiques ........................................................................................ 78

    III. Matériel utilisé et techniques d’enregistrement..................................... 80

    A. Electrodes : système 10/20 ........................................................................................................ 80

    B. Le système d’enregistrement .................................................................................................... 81

    1) Casque à électrodes / électrodes actives

    2) La référence

    IV. Traitement des données................................................................................. 82

    A. Filtrage des données /rejet des artefacts .................................................................................. 82

    B. Moyennage .................................................................................................................................. 83

    V. Les avantages et les inconvénients de la méthode des PEs ................. 84

    A. Avantages .................................................................................................................................... 85

    B. Inconvénients et Perspectives ................................................................................................... 85

    PARTIE 3: LES EXPERIENCES REALISEES ............................... 87

    Expérience I. Le traitement du mètre et de la sémantique dans le langage parlé: comparaison

    entre musiciens et non-musiciens. Céline Marie, Cyrille Magne & Mireille Besson (Accepté dans

    « Journal of Cognitive Neuroscience », 2 Décembre 2009) ................................................... 88

    Expérience II. Influence de l’expertise musicale sur le traitement de la hauteur tonale et de la

    phonologie d’une langue étrangère à tons. Céline Marie, Franco Delogu, Giulia Lampis,

    Marta Olivetti Belardinelli & Mireille Besson (En révision pour le « Journal of Cognitive

    Neuroscience ») ............................................................................................................. 92

    7

  • Expérience III. L'expertise musicale et linguistique influence le traitement des sons non-

    linguistiques. Céline Marie, Teija Kujala & Mireille Besson (Soumis). ................................... 96

    Expérience IV. Catégorisation et amorçage conceptuel de sons non-linguistiques et

    linguistiques. Mitsuko Aramaki, Céline Marie, Richard Kronland-Martinet, Solvy Ystad & Mireille

    Besson. (Sous-presse « Journal of Cognitive Neuroscience »).............................................. 103

    Expérience V. Les unités sémiotiques temporelles sont-elles des unités qui véhiculent du sens

    en musique ? Approche électrophysiologique. Aline Frey, Céline Marie, Lucie Prod’Homme,

    Martine Timsit-Berthier, Daniele Schön & Mireille Besson (2009). Music Perception, Volume 26,

    Issue 3, pp. 247–256. .................................................................................................... 108

    PARTIE 4: DISCUSSION GENERALE............................................. 112

    I. Comment expliquer les processus de transfert d’apprentissage ......... 122

    II. Perspectives de recherches.......................................................................... 124

    REFERENCES BIBLIOGRAPHIQUES .......................................... 130

    ANNEXES ........................................................................................................ 153

    1. Bases structurales de la musique ................................................................................ 154

    2. Curriculum vitae ..................................................................................................... 156

    8

  • Première Partie

    PROBLEMATIQUE

    et

    CADRE THEORIQUE

    « Ce que je vois et ce que j’entends du monde extérieur, c’est simplement ce que mes sens en

    extraient pour éclairer ma conduite »

    Bergson (1900).

    9

  • PROBLEMATIQUE

    Notre environnement sonore quotidien est très riche et comprend une multitude de sons que

    notre cerveau analyse avec une vitesse déconcertante. Les sons du langage sont un exemple

    remarquable: ils véhiculent du sens et ils nous permettent de communiquer. Mais d’autres sons sont

    également porteurs de sens, comme les sons de l’environnement (e.g., klaxon, bouchon de

    champagne…) et la musique, et ils nous permettent aussi de communiquer parce qu’à des degrés

    divers nous sommes experts dans le traitement de l’information auditive véhiculées par ces sons. Le

    but de mon travail de thèse a été de déterminer dans quelle mesure l’expertise musicale influence le

    traitement des sons du langage parlé, et à l’inverse, si l’expertise linguistique, liée à l’acquisition de

    la langue maternelle, influence le traitement de sons non linguistiques. Ces recherches ont été

    motivées par les nombreuses heures passées à apprendre et à jouer de la musique depuis mon

    enfance et qui m’ont permis de réaliser à quel point nos capacités cérébrales sont adaptatives. J’ai

    donc tenté de mieux comprendre les modifications de l'organisation fonctionnelle du cerveau

    engendrées par l'expertise musicale et linguistique à travers l’étude de la perception et de la

    cognition auditive.

    La modalité auditive étant au centre de ma problématique, je commence par décrire

    succinctement, dans le Chapitre 1, les différentes étapes du traitement des sons, du pavillon de

    l’oreille qui permet de les capter jusqu'aux réseaux corticaux qui permettent de leur attribuer un

    sens.

    Le développement des capacités auditives a été largement étudié chez l'animal. Ces travaux

    ont permis de révéler des effets de plasticité cérébrale étonnants. Cependant, grâce à l’évolution

    récente des méthodes d’imagerie cérébrale (Electro et Magnétoencéphalographie, EEG et MEG ;

    Tomographie par Emission de Positrons, TEP et Imagerie par Résonance Magnétique, IRM), dont je

    décris les principes dans le Chapitre 2, nous pouvons maintenant étudier plus précisément la

    modalité auditive chez l’homme. Dans mes recherches, j'ai utilisé la méthode des Potentiels

    Evoqués qui permet d'enregistrer en temps réel les variations de l'activité électrique cérébrale

    associées à la présentation d'un événement ou stimulus particulier.

    L'expertise correspond à un niveau de connaissances (savoir) et de compétences (savoir-

    faire) acquis par un individu dans un domaine particulier. Plusieurs auteurs ont souligné l’idée selon

    laquelle les musiciens constituent un modèle pertinent et idéal pour évaluer les effets de plasticité

    cérébrale induits par l'expertise (Schlaug, 2001; Jäncke, 2002 ; Münte et al., 2002). De nombreuses

    études, utilisant les méthodes d’imagerie cérébrale, ont ainsi eu pour objectif de cerner les

    modifications anatomo-fonctionnelles du « cerveau musicien ». Ces travaux ont révélé que

    différentes structures cérébrales sont plus développées chez les musiciens que chez les non-

    10

  • musiciens. Par ailleurs, d’autres études ont montré que ces différences anatomiques sont

    accompagnées de différences fonctionnelles, reflétées par des modifications du niveau d’activation

    dans certaines régions cérébrales et par des corrélats électrophysiologiques différents chez les

    musiciens et les non-musiciens. Ces résultats sont détaillés dans le Chapitre 3 (A et B) et sont à la

    base des questions abordées dans mes travaux de thèse.

    Une question centrale est de déterminer si les structures et les fonctions cérébrales modifiées

    par l’expertise musicale sont spécifiquement dédiées au traitement de la musique ou si elles sont

    également impliquées dans d’autres domaines. Cette question est liée au problème fondamental, et

    toujours débattu dans la littérature, de l'organisation cérébrale des fonctions cognitives. La

    psychologie moderne et les sciences cognitives ont été largement influencées par l’ouvrage de

    Fodor (1983) sur la modularité de l’esprit. Dans ce livre, Jerry Fodor s’inspire des travaux du

    linguiste Noam Chomsky1 portant sur l'idée d'une organisation en modules spécialisés et autonomes

    de la faculté de langage, pour proposer une extension de cette organisation aux autres facultés

    mentales. Il définit un module comme étant une opération innée et cloisonnée du point de vue

    informationnel, dont le fonctionnement serait inconscient, automatique, se déroulerait en parallèle

    d’autres fonctions mentales et indépendamment des autres modules. Cette théorie modulaire fait

    néanmoins l'objet de controverses portant notamment sur la définition opérationnelle de tels

    modules, sur l'étendue de leur spécialisation et sur leur indépendance. En outre, l’hypothèse d’une

    modularité « massive » des fonctions cognitives est aujourd’hui largement remise en question,

    notamment par Fodor lui-même dans un livre qu’il publie en 2000 et intitulé « The mind does not

    work that way ».

    Pour aborder le problème de la spécificité des fonctions cognitives, il est important de noter

    que, comme nous le verrons dans les Chapitre 3.C. et 4.A., la musique et le langage ne peuvent pas

    être considérés comme des entités. Ces deux fonctions reposent, au contraire, sur différents niveaux

    d’organisation : le rythme, la mélodie et l’harmonie dans la musique et la phonologie/prosodie, la

    sémantique, la syntaxe et la pragmatique dans le langage. Or, certains niveaux d’organisation

    pourraient mettre en jeu des processus communs à ces deux fonctions cognitives. Par exemple, la

    prosodie du langage parlé repose sur des variations des mêmes paramètres acoustiques que ceux

    impliqués dans la mélodie d’une phrase musicale, à savoir, des variations de fréquence, de durée,

    d’intensité et de spectre. En outre, les résultats de nombreuses études utilisant les méthodes

    d’imagerie cérébrale, et détaillées dans le Chapitre 4.B, soulignent les similarités et les différences

    entre ces deux fonctions cognitives. Des résultats récents (e.g., Maess et al., 2001, Koelsch et al.,

    2002a ; Tillmann et al., 2003 ; Brown et al., 2006) montrent, par exemple, que les aires de Broca et

    1 Noam Chomsky, né en 1928, est un linguiste américain, fondateur de la linguistique générative dans les années 1950. La grammaire générative vise à rendre compte des structures innées de la « faculté de langage ». Il a proposé, au début des années 1980, une nouvelle version de sa théorie basée sur une approche modulaire.

    11

  • de Wernicke, qui ont longtemps été considérées comme spécifiques au langage, sont également

    activées par l'écoute de phrases musicales dès lors que la congruence harmonique et rythmique de

    ces phrases est manipulée.

    Dans mon travail de thèse j'ai testé l'hypothèse générale suivante. Si l’expertise musicale

    influence l’organisation anatomo-fonctionnelle de régions cérébrales qui ne sont pas spécifiques à la

    musique mais qui sont également impliquées dans d’autres fonctions cognitives comme le langage,

    l'expertise musicale devrait également influencer certains aspects de la perception et de la

    compréhension du langage. Cette hypothèse d’un transfert d’apprentissage de la musique vers le

    langage est au centre des expériences que j'ai réalisées. Des résultats récents, que je détaille dans le

    Chapitre 4.C, montrent d’ores et déjà des effets de transfert positifs. Par exemple, Besson et

    collaborateurs ont montré que, chez l’adulte, l'expertise musicale améliore le traitement de la

    hauteur tonale non seulement dans la langue maternelle de l’auditeur (Schön et al., 2004) mais aussi

    dans une langue étrangère inconnue des participants, en l’occurrence le portugais (Marques et al.,

    2007). Le premier objectif de mes travaux de thèse a été de déterminer si l’expertise musicale

    influence le traitement de la structure métrique du langage (cf. Expérience 1). Le mètre est un

    aspect important de la prosodie du langage parlé qui fournit des indices pertinents pour la

    segmentation du flux continu de parole en unités signifiantes, les mots. La deuxième étude a eu

    pour objectif d’étudier l’influence de l'expertise musicale sur le traitement des variations tonales et

    phonologiques dans une langue étrangère à tons, le mandarin, inconnue des participants (cf.

    Expérience 2). Notons que, contrairement au français, la majorité des langues du monde

    comprennent des variations de hauteur ou de durée, aux niveaux syllabique ou phonémique, qui

    modifient le sens des mots. J’ai donc testé l’hypothèse selon laquelle l’expertise musicale améliore

    la perception de variations de hauteur et de phonologie dans une langue à tons.

    La logique du raisonnement consistait ensuite à tester l’hypothèse inverse, à savoir

    l’existence d’un transfert d’apprentissage du langage vers la musique. Cependant, dans la mesure où

    ce sujet de recherche est encore inexploré, il m’a semblé prudent de commencer par étudier

    l’influence de l’expertise linguistique sur le traitement de sons non-linguistiques, harmoniques,

    avant d’utiliser des stimuli plus musicaux. Plusieurs résultats, décrits dans le Chapitre 5, montrent

    que les spécificités linguistiques de la langue maternelle améliorent le traitement de la hauteur et de

    la durée de sons linguistiques chez les locuteurs de ces langues (e.g., Zatorre et Gandour, 2008 ;

    Tervaniemi et al., 2006b). La question restait cependant ouverte de déterminer si les processus

    influencés par l’expertise linguistique cette fois (et non plus musicale) sont spécifiques aux sons du

    langage ou s’étendent à des sons non-linguistiques. Pour répondre à cette question, j’ai comparé les

    niveaux de traitement préattentif et attentif de variations de fréquence, de durée et d'intensité sur des

    sons non-linguistiques chez des locuteurs Français et Finlandais. En outre, pour comparer

    12

  • directement les effets de l’expertise linguistique et de l’expertise musicale, j’ai également inclus un

    groupe de musiciens dans cette étude.

    L’expertise, qu’elle soit musicale ou linguistique, se développe du fait de nombreuses heures

    de pratique et d’écoute durant lesquelles l’attention est fortement sollicitée. L’attention occupe une

    place prépondérante dans l’étude de la cognition humaine car elle permet de focaliser les ressources

    cognitives sur le signal perçu. Il est donc important de cerner l’impact du facteur attentionnel sur les

    phénomènes de plasticité cérébrale induits par l’expertise. Dans les Chapitres 3, 4 et 5 du cadre

    théorique, relatifs à l’influence de l’expertise musicale et linguistique sur le traitement des sons et

    aux effets de transfert d’apprentissage, je distingue les études ayant pour objet l’analyse du niveau

    préattentif de celles centrées sur le niveau attentif. Afin de déterminer si l’expertise linguistique

    influence le traitement préattentif (automatique) ou attentif (contrôlé) des sons non-linguistiques,

    j'ai utilisé un protocole permettant d’enregistrer un corrélat électrophysiologique du traitement

    préattentif, la négativité de discordance ou Mismatch Negativity (MMN). Pour comparer

    directement les processus préattentif et attentif, j’ai également utilisé un protocole de discrimination

    attentive avec les mêmes sons présentés aux mêmes participants (cf. Expérience 3).

    Le langage et la musique sont clairement deux des systèmes les plus spécifiques de l’espèce

    humaine. Leur caractère universel, leur évolution parallèle et leur importance dans le

    développement des cultures humaines soulignent leur similarités mais ces systèmes présentent

    également des différences (Besson et Schön, 2001 ; Zatorre et al., 2002 ; Koelsch et al., 2005a ;

    Patel, 2003, 2008). Une des différences les plus intéressantes est peut-être liée à la manière dont ces

    deux systèmes permettent de transmettre du sens, car le sens dans la musique reste encore plus

    difficile à cerner que le sens dans le langage. Pour aborder ce problème, lié à la problématique

    générale de la sémiotique des sons, j’ai étroitement participé à la réalisation de deux expériences

    visant à déterminer si les processus mis en jeu par le traitement du sens des sons de l’environnement

    et des sons musicaux sont comparables à ceux impliqués par les sons du langage. La première visait

    à comparer l'amorçage conceptuel mis en jeu par des sons de l'environnement et par des sons

    linguistiques (Expérience 4) ; la deuxième avait pour but de cerner les effets électrophysiologiques

    associés à un changement de concept dans la musique (Expérience 5).

    En résumé, le cadre théorique, exposé dans la première partie de ce manuscrit est divisé en

    cinq chapitres. Le premier est consacré à la physiologie de l'audition car la plupart des travaux cités

    et toutes les expériences que j'ai réalisées concernent cette modalité. En outre, il m’a semblé

    important de revenir sur les premières étapes du traitement de l’information auditive car des effets

    d’expertise ont récemment été mis en évidence au niveau de structures sous-corticales telles que le

    13

  • colliculus inférieur (e.g., Wong et al., 2007a ; Musacchia et al., 2007 ; 2008 ; Krishnan et al., 2005).

    Le deuxième chapitre est centré sur une description rapide des méthodes d’imagerie cérébrale,

    directes (EEG et MEG) et indirectes (TEP et IRMf), afin de donner au lecteur les éléments de base

    essentiels à la compréhension des résultats présentés dans les chapitres suivants. Le troisième

    chapitre est une revue de la littérature relative aux effets de l’expertise musicale sur le traitement

    des sons non-linguistiques en général, et musicaux, en particulier. Le quatrième chapitre est centré

    sur la question du transfert d’apprentissage de la musique vers le langage. Après une description

    rapide des aspects qui structurent le langage parlé et des spécificités linguistiques de certaines

    langues du monde, l’influence de l’expertise musicale sur le traitement des sons linguistiques est

    décrite en détails. Enfin, le cinquième chapitre est un résumé des travaux qui visent à tester les

    effets de l’expertise linguistique, et non plus musicale, sur le traitement de sons linguistiques

    d’abord, puis des études qui abordent la question inverse, du transfert d’apprentissage du langage

    vers des sons non-linguistiques.

    La deuxième partie de ce manuscrit comprend une description des principes de base de la

    méthode des PEs, que j’ai utilisée dans ce travail de thèse, et un résumé des évolutions

    méthodologiques concernant les traitements associés au signal enregistré.

    Dans la troisième partie, expérimentale, je résume tout d’abord les objectifs de chacune des

    cinq études que j’ai réalisées en soulignant leur pertinence par rapport aux résultats exposés dans le

    cadre théorique puis j’expose les principaux résultats obtenus. L’article correspondant, en cours de

    publication ou de soumission, est présenté après chaque résumé.

    Dans la dernière partie je reprends l’ensemble des données obtenues afin de dégager leurs

    implications pour la compréhension des effets de transfert d’apprentissage de la musique sur le

    traitement des sons linguistiques et du langage sur le traitement des sons non-linguistiques. Enfin,

    de nouvelles perspectives de recherche sont proposées qui visent à approfondir nos connaissances

    des mécanismes de plasticité cérébrale et de transfert d’apprentissage chez l’homme.

    14

  • Chapitre I.

    Présentation de la modalité auditive et de la physiologie de l’audition

    Le système auditif humain est divisé en deux parties : le système auditif périphérique et le

    système auditif central. L’objectif de ce chapitre est de présenter rapidement l’organisation de la

    modalité auditive car les travaux que j’ai réalisés s’inscrivent dans cette modalité. En outre, le

    développement des investigations au niveau sous-cortical nécessite une vue d’ensemble de la

    physiologie de l’audition. Enfin, les voies auditives descendantes, des structures corticales aux

    structures sous-corticales, semblent participer aux effets de l’expertise musicale et linguistique

    observés sur le traitement des sons linguistiques et non-linguistiques.

    A. Le système auditif périphérique

    Le système auditif périphérique comporte trois parties qui jouent chacune un rôle spécifique

    dans la perception du son (Figure 1) : l’oreille externe, moyenne et interne.

    Figure 1 : Schéma du système auditif périphérique humain

    (www.iframsurdite.com/images/ill_oreille_coupe.gif).

    1) L’oreille externe

    L’oreille externe est constituée du pavillon et du conduit auditif externe. La première étape

    consiste à capter les sons de l’environnement grâce au pavillon. Les sons transitent ensuite dans le

    conduit auditif externe où ils sont légèrement amplifiés. Un son correspond à un déplacement d’air,

    avec une certaine intensité et une certaine fréquence, qui peut se propager en milieux solide, liquide

    ou gazeux. L’oreille externe permet la transmission aérienne de l’onde sonore. Le son atteint alors le

    15

  • tympan, un organe très fragile, placé dans une cavité de l’os du rocher, qui marque l’entrée dans

    l’oreille moyenne.

    2) L’oreille moyenne

    L’oreille moyenne est une cavité qui abrite les trois osselets (le marteau, l’enclume et

    l’étrier, cf. Figure 2) qui permettent la transmission de la vibration sonore d’un milieu aérien à un

    milieu liquide. Le tympan vibre selon la fréquence spécifique du son et cette vibration est

    transformée en vibration mécanique qui est transmise à la chaîne des osselets. Les osselets ont un

    rôle important de levier: ils permettent d’adapter l’intensité et la fréquence du signal reçu pour

    transmettre les informations sonores, via la fenêtre ovale, au milieu liquidien dans l’oreille interne.

    L'oreille moyenne peut limiter, si besoin (e.g, dans les environnements sonores bruyants),

    l'intensité des signaux sonores grâce à des muscles bridant les déplacements du marteau et de

    l'étrier : c’est le réflexe stapédien (chez l’homme seul le muscle de l’étrier, le stapédien, se

    contracte). Lorsqu’un son de forte intensité atteint la cochlée, l’information est transmise aux

    noyaux du tronc cérébral. Une boucle réflexe commande la contraction du muscle stapédien, ce qui

    entraîne une augmentation de la rigidité de la chaîne tympano-ossiculaire, une limitation des

    déplacements et donc une diminution de l’énergie transmise à l’oreille interne. L'atténuation reste

    cependant relativement faible (environ 10 dB, variable selon les fréquences) et intervient en

    quelques dizaines de millisecondes.

    Figure 2 : Schéma de l’oreille moyenne (Les figures 2 à 4 sont issues du site : http://www.centre-

    auditif-riviera.com/fonction_audition.html)

    3) L’oreille interne

    L’oreille interne contient l’organe de l’équilibre, l’appareil vestibulaire et l’organe de l’ouïe,

    la cochlée (cf. Figure3).

    16

  • Figure 3 : Schéma de l’oreille interne

    a. La cochlée

    La cochlée est divisée en trois parties : la rampe vestibulaire, la rampe tympanique et le

    canal cochléaire (cf. Figure 4). La cochlée est un organe creux rempli de liquide, dont la

    composition chimique permet de distinguer deux types : la périlymphe dans les deux rampes et

    l’endolymphe dans le canal cochléaire. Les vibrations aériennes de l’oreille moyenne sont

    transmises, via la fenêtre ovale, à la périlymphe à l’intérieur de la cochlée avec une certaine

    fréquence ce qui provoque des mouvements de la membrane basilaire

    Figure 4 : Schéma de coupe de la cochlée : Cette section schématise l'enroulement du canal

    cochléaire (1) contenant l'endolymphe ainsi que les rampes vestibulaire (2) et tympanique (3)

    contenant la périlymphe. La flèche rouge vient de la fenêtre ovale et la bleue

    aboutit à la fenêtre ronde. Au centre, le ganglion spinal cochléaire (4)

    et les fibres du nerf cochléaire (5) apparaissent en jaune.

    17

  • b. La tonotopie

    La représentation fréquentielle des sons dans la cochlée est organisée de manière

    tonotopique. Le long de la cochlée, chaque cellule ciliée (voir ci-dessous) répond préférentiellement

    à une certaine fréquence, ce qui permet ainsi de différencier la fréquence des sons. Les basses

    fréquences (sons graves) sont représentées à l’apex de la cochlée alors que les hautes fréquences

    (sons aigus) sont représentées à la base (voir Figure 5). La base de la cochlée est plus épaisse et plus

    large que l’apex ce qui lui confère une rigidité plus importante. Cette rigidité joue un rôle

    primordial dans la propagation passive de l’onde sonore le long de la cochlée. En effet, l’amplitude

    du mouvement de la membrane basilaire est plus importante à l’apex, pour les basses fréquences, et

    diminue à la base, pour les hautes fréquences.

    Figure 5 : Schéma de la tonotopie de la cochlée (http://www.franceaudiologie.com)

    c. L’organe de Corti et la transduction mécano-électrique

    L’organe de Corti repose sur la membrane basilaire et il est composé de milliers de cellules

    ciliées (cf. Figure 6). Les cellules ciliées, qui baignent dans l’endolymphe, doivent leur nom à la

    présence de stéréocils à leur pôle apical. Les mouvements de haut en bas de la membrane basilaire

    sont transmis à l’endolymphe où les stéréocils des cellules ciliées vont onduler d’avant en arrière.

    Les mouvements mécaniques des stéréocils sont à ce niveau transformés en excitation électrique

    transmise par le nerf auditif : transduction mécano-électrique.

    Il existe deux types de cellules ciliées : les cellules ciliées externes (CCE) et internes (CCI)

    qui sont doublement innervées par de fibres afférentes (véhiculant des messages vers le système

    nerveux central) ou par des fibres efférentes (en provenance du système nerveux central). Lorsque

    les stéréocils des CCE sont déplacés, les CCE sont excitées et se contractent (électromotilité) ce qui

    amplifie le mouvement de vibration initiale. De même, les CCI excitées activent les synapses des

    fibres afférentes. Un message nerveux auditif est ainsi envoyé au cerveau via le nerf auditif. Ainsi,

    18

  • des étapes importantes de traitement et d’encodage des sons sont déjà engagées au niveau du

    système auditif périphérique.

    Figure 6: Schéma de l’organe de Corti (www.sante-dz.com)

    B. Le système auditif central

    L’influx nerveux produit par le système auditif périphérique est transmis par le nerf auditif

    qui part de la cochlée (CCI) et projette sur les noyaux cochléaires du tronc cérébral. A ce niveau le

    nerf auditif donne naissance à deux faisceaux, la voie auditive primaire et la voie réticulaire. La

    voie réticulaire n’est pas spécifique à la fonction auditive, c’est une voie non-primaire, polymodale

    qui participe avec les systèmes d’éveil et de motivation à la sélection de l’information qui doit être

    traitée en priorité. En revanche, la voie auditive primaire est une voie spécifique à la fonction

    auditive qui relie donc la cochlée au tronc cérébral jusqu’au cortex auditif primaire (Figure 7 et 8).

    La voie auditive primaire est composée de grosses fibres myélinisées et comprend différents

    relais synaptiques. Elle traverse la ligne médiane du bulbe rachidien et la plupart des fibres sont

    croisées au niveau des noyaux cochléaires et projettent sur les 3 noyaux du complexe olivaire

    supérieur controlatéral. Nous verrons que des phénomènes de plasticité ont été mis en évidence au

    niveau des noyaux du tronc cérébral et que les traitements réalisés à ce niveau peuvent être

    influencés par l’expertise musicale et linguistique. En outre, les traitements sensoriels sous-

    corticaux semblent interagir de façon dynamique avec des processus cognitifs tels que la mémoire,

    l’attention ou l’intégration multi-sensorielle (pour une revue voir Tzounopoulos & Kraus 2009,

    Kraus et al., 2009). L’information auditive suit ensuite le lemnisque latéral jusqu’au colliculus

    inférieur, avant d’atteindre le corps genouillé médian du thalamus et les aires auditives primaires

    (l’aire 41 de Brodmann, située dans le lobe temporal, sur la face supérieure de la première

    19

  • circonvolution temporale, gyrus transverse de Heschl) et associatives (aires 42 et 22 de Brodmann,

    voir Figure 9).

    1) Le croisement des voies auditives

    Une des particularités du système auditif est que les fibres du nerf auditif, qui part de

    l’oreille gauche ou de l’oreille droite, projettent sur les deux hémisphères ipsilatéral et controlatéral.

    Ainsi, pour chaque oreille, deux faisceaux du nerf auditif croisent au niveau du bulbe rachidien et

    les informations sonores sont traitées à la fois par les cortex auditifs gauche et droit. Notons

    toutefois que la projection est plus importante sur l’hémisphère controlatéral à l’oreille stimulée

    (Rosenzweig, 1951).

    Figure 7 : Présentation schématique de la voie auditive primaire gauche

    (adapté de Bear et al., 1999)

    20

  • Figure 8 : Présentation schématique d’une vue postérieure du tronc cérébral

    (www.abieducation.com/binder/French/chap1.html).

    Figure 9 : Représentation des aires de Brodmann sur la face externe (à gauche), et sur la face

    interne du cerveau (à droite; http://abcavc.ifrance.com/anat_encephale.htm).

    2) Les voies auditives descendantes/ efférentes

    Le système auditif présente une particularité par rapport aux autres systèmes sensoriels car

    c’est le seul cas où une voie descendante (i.e., voie corticofugale ; pour une revue voir Suga, 2008;

    Luo et al., 2008) projette directement sur l’organe sensoriel, la cochlée (voir Figure 10). Les voies

    auditives descendantes (efférentes) sont constituées des voies cortico-olivocochléaires qui

    proviennent du cortex auditif primaire et qui permettent un contrôle direct sur la cochlée. Les voies

    cortico-olivocochléaires se divisent en deux systèmes: le système efférent olivocochléaire médian

    (SEOCM dont les effets sont rapides, entre 100 ms à 10 secondes) et le système efférent

    olivocochléaire latéral (SEOCL dont les effets sont lents, de l’ordre de la minute).

    21

  • - Les rôles du SEOCL sont encore mal connus. Cependant, Ruel et collaborateurs (2001) suggèrent

    un rôle de protection contre les traumatismes acoustiques (pour une revue voir Groff & Liberman,

    2003).

    - Les rôles du SEOCM sont multiples: ce système favorise la détection des stimuli pertinents noyés

    dans du bruit, il protège également l’oreille des sur-stimulations acoustiques et il permet également

    d’améliorer la perception de la parole dans le bruit (Nahum et al., 2008). Ce système efférent agit

    sur l’électromotilité des cellules ciliées externes CCE de l’organe de Corti, son rôle protecteur est

    donc différent de celui du réflexe stapédien ossiculaire (cf. page 15) agissant sur le muscle de

    l’étrier dans l’oreille moyenne de façon plus rapide (10 ms).

    Figure 10 : Représentation schématique et des voies auditives descendantes (à gauche). Figure

    adaptée de Moss et Sinha (2003).

    3) Quelques rappels

    L’oreille humaine permet de percevoir des sons dont la fréquence est comprise entre 15 Hz

    et 20 000 Hz. Cependant, au niveau physiologique l’encodage est qualitativement différent selon les

    fréquences. En effet, les petits changements de fréquence sont mieux perçus dans les basses

    fréquences de la zone audible. Les sons les mieux perçus se situent entre 125 et 3000 Hertz. Ainsi,

    la bande de fréquence conversationnelle du langage est comprise entre 200 et 4000 Hz, les

    consonnes se situent entre 500 et 8000 Hz et les voyelles entre 250 à 3000 Hz (Johnson, 1997). Il

    serait donc plus difficile de percevoir certains sons consonantiques, comme les fricatives, qui ont

    des valeurs de fréquence au dessus de 4000 Hz que les sons vocaliques.

    22

  • Chapitre II.

    Les méthodes d'imagerie cérébrale

    A. Les méthodes électromagnétiques

    1) Les Potentiels Evoqués (PEs)

    La méthode électrophysiologique permet de mesurer directement, au moyen d’électrodes

    placées sur le scalp, les variations de l’activité électrique cérébrale (i.e., l’électroencéphalogramme

    ou EEG) produites par la mise en jeu synchrone de milliers de neurones spatialement proches. Elle

    permet de suivre le décours temporel, en temps réel, des processus neurophysiologiques qui sous-

    tendent les activités mentales. Son point fort réside dans son excellente résolution temporelle. En

    revanche, son point faible est sa résolution spatiale. Il est, en effet, relativement difficile de

    déterminer la localisation des générateurs cérébraux qui sont à l’origine des effets observés sur le

    scalp.

    L’application des procédures de sommation et de moyennage de l’activité électrique

    cérébrale permet d’obtenir les « composantes des PEs ». Ces composantes sont caractérisées par

    leur polarité, leur latence, leur amplitude, leur distribution sur le scalp et leur signification

    fonctionnelle. Leur dénomination est, par consensus, l’addition de la lettre correspondant à la

    polarité (P pour positivité et N pour négativité), et de la valeur de la latence de leur maximum

    d’amplitude (e.g., la P300 est une composante positive dont le maximum d’amplitude apparait à

    300 ms) ou leur ordre d’apparition (e.g., P3 est la troisième composante positive). Dans le domaine

    de l’audition, on distingue généralement différents types de composantes en fonction de leur

    latence. Les plus précoces sont les composantes du Potentiel Evoqué Auditif (PEA) du tronc

    cérébral, dont la latence est utilisée en clinique pour appréhender les différentes étapes de la

    conduction nerveuse, et constitue un test d'audiométrie classique. Au moins 15 composantes ont été

    identifiées en réponse à des sons purs très brefs (i.e., sons ne contenant qu’une seule fréquence

    également appelé clic), qui correspondent à différentes localisations le long des voies auditives

    ascendantes (Figure 11):

    Onde I : nerf cochléaire

    Onde II : noyau cochléaire

    Onde III : olive supérieure

    Onde IV/V : colliculus inférieur

    L'origine des composantes de latence moyenne (No à Nb qui apparaissent entre 10 et 60 ms)

    est moins bien connue mais correspondrait au noyau géniculé médian au niveau sous-cortical. Les

    composantes de latence tardives (entre 90 et 1000 ms) correspondent à l’arrivée de l’influx nerveux

    23

  • au niveau du cortex auditif primaire (P100, N100 et P200) et ensuite au traitement cognitif du

    stimulus.

    Figure 11 : Les potentiels évoqués auditifs suscités en réponse à un clic.

    [http://www.cnebmn.jussieu.fr/enseignement/biophysiqueneurosensorielle/cours_acoustique/

    travail_octobre/pagesdedocumentation/pea.html].

    Il est important de noter que des études récentes ont testé l’influence de l’expertise musicale

    ou linguistique sur les Potentiels Evoqués du tronc cérébral (i.e., Brainstem Evoked Responses,

    BERs, voir Figure 12). Depuis une dizaine d’années, la nature dynamique des réponses enregistrées

    au niveau du tronc cérébral a été mise en évidence, notamment par Galbraith et collaborateurs

    (1998). Ils ont démontré une modulation de ces réponses par l’attention sélective (cf. ci-dessous) en

    utilisant un protocole d’écoute dichotique de sons de voyelle. En outre, Galbraith et al. (2004)

    montrent également que l’amplitude des BERs est plus grande pour le son d’une syllabe que pour le

    même son de syllabe joué à l’envers. Dans les Chapitres 4 et 5 nous détaillerons les résultats

    d’expériences récentes qui démontrent une influence de l’expertise sur les BERs et qui mettent

    également en évidence des effets de transfert d’apprentissage. De plus, nous reviendrons dans la

    discussion générale sur l’influence de l’attention sur les effets observés à différentes niveaux de

    traitement et sur les controverses que ce point soulève.

    24

  • Figure 12: Forme acoustique de la syllabe /da/ synthétisée (en haut) et tracé correspondant

    au grand moyennage des potentiels évoqués au niveau du tronc cérébral suscités par ce stimulus

    (en bas). Le stimulus (en haut) a été décalé dans le temps sur la figure pour être synchrone avec

    l’occurrence des réponses sous-corticales (maximum d’amplitude ou pic V) ce qui permet une

    comparaison directe entre le stimulus présenté et la réponse au niveau du tronc cérébral. Les

    maxima V et A reflètent l’attaque du son linguistique, et le maximum O reflète la fin du son. Les pics

    D, E et F reflètent la synchronisation de phase avec la fréquence fondamentale du son, et les pics

    entre D, E et F, apparaissent aux premiers formants F1 du son linguistique (Figure adaptée à

    partir de Abrams & Kraus, 2009).

    Au niveau cortical, on distingue les composantes exogènes et les composantes endogènes.

    Les caractéristiques des composantes exogènes (latence, amplitude, distribution et polarité) sont

    déterminées par les propriétés physiques des stimuli. Notons toutefois que l’amplitude et la latence

    des composantes exogènes peuvent également être modulées par des facteurs tels que l’attention. En

    1973, Hillyard et collaborateurs ont été les premiers à montrer que l'amplitude de la composante

    N100 est modulée par l'attention sélective. En revanche, les caractéristiques des composantes

    endogènes dépendent de facteurs tels que la tâche demandée, la motivation du participant et la

    nature des processus de traitement impliqués. Par exemple, la composante N200, qui se développe

    entre 200 et 300 ms post-stimulation, est considérée comme reflétant la détection d’un changement

    dans une séquence de sons. La composante P3a, de distribution fronto-centrale avec une latence de

    300 ms reflèterait l’orientation automatique de l’attention vers un évènement surprenant

    (Courchesne, Hillyard, et Galambos, 1975, Näätanen, 1992). La composante P3b, qui se développe

    25

  • entre 350 et 600 ms, reflèterait les processus de catégorisation d’un stimulus et de prise de décision

    (Donchin 1981; Donchin et Coles 1988, Giard et al. 2000). Enfin, la composante N400 a été mise

    en évidence par Kutas et collaborateurs dans des expériences portant sur la compréhension du

    langage (Kutas et Hillyard, 1980 et revue Kutas et al., 2006). Les participants devaient lire des

    phrases présentées mot à mot sur un écran et dont le dernier mot était soit sémantiquement

    congruent soit incongru par rapport au contexte de la phrase. Les mots sémantiquement incongrus

    suscitent l’occurrence d’une composante N400. Les composantes N2, P3a, P3b et N400 sont des

    exemples de composantes endogènes qui reflètent le traitement cognitif des stimuli.

    Les processus préattentifs sont généralement définis comme des processus qui se

    développent très rapidement (c'est-à-dire, en moins de 300 ms), qui se produisent sans intention

    consciente, qui peuvent fonctionner en parallèle avec d'autres activités mentales et qui sont

    obligatoires (c'est-à-dire irrépressibles; Posner & Snyder, 1975). Un protocole classiquement utilisé

    pour tester ces processus est le protocole de Mismatch Negativity (MMN, Näätänen, 1978, revues

    Kujala & al., 2007; Näätänen & al., 2007). L’amplitude, la latence et la topographie de la

    composante MMN sont sensibles aux processus mis en jeu par le traitement préattentif de la

    déviance dans une séquence répétée de stimuli (auditifs, visuels..). La composante MMN

    correspond à la différence entre la moyenne de l’activité suscitée par le stimulus déviant, et la

    moyenne de l’activité générée par le stimulus standard. Elle reflèterait l’activation des processus de

    détection automatique d’une déviance par rapport à la trace en mémoire à court terme établie par la

    répétition du stimulus standard. Cette composante à une distribution généralement fronto-centrale et

    son maximum d’amplitude apparaît entre 100 et 250 ms après le début de déviance. Une extension

    de ce protocole a été récemment développée permettant de présenter plusieurs types de déviants

    dans une même séquence de sons, tout en obtenant des résultats similaires à ceux obtenus avec

    l’ancien protocole (Optimum-1paradigm; Näätänen et al., 2004, voir également Pakarinen et al.,

    2007). Ce protocole est intéressant puisqu’il permet de réduire le nombre de sons standards

    présentés ainsi que la durée totale de l’expérience. Nous l’avons d’ailleurs utilisé dans l’expérience

    3 visant à explorer l’influence de la langue maternelle sur le traitement préattentif des sons non-

    linguistiques.

    Les processus attentionnels sont définis comme des processus qui nécessitent un certain

    temps pour se développer (i.e., plus de 300 ms) et qui sont sous un contrôle conscient. Ces

    processus exigent des ressources et ne peuvent, par conséquent, se dérouler en parallèle avec

    d'autres activités mentales (Posner & Snyder, 1975; Moors et De Houwer, 2006). Un protocole

    classiquement utilisé pour tester ces processus est le protocole d’attention sélective. Hillyard et al.

    (1973) ont utilisé deux séquences, constituées de sons séparés d’intervalles très courts et irréguliers.

    Chaque séquence comprend des sons standards d'une fréquence déterminée ainsi que quelques sons

    26

  • déviants légèrement différents. Tandis qu'une séquence est délivrée à l'oreille gauche, l'autre

    parvient simultanément à l'oreille droite. Cette présentation très rapide oblige le sujet à focaliser son

    attention sur une seule oreille pour effectuer une détection correcte des stimuli déviants. Ce sont

    tantôt les sons de l'oreille gauche, tantôt ceux de l'oreille droite qui sont pertinents. Les résultats

    montrent une augmentation d’amplitude de la composante N1 (80-110 ms) évoquée par les stimuli

    présentés à l’oreille attentive, plus grande sur l’hémisphère controlatéral à cette oreille que sur

    l’autre hémisphère, ainsi qu’une augmentation d’amplitude de la composante positive tardive

    (P300) associés aux sons déviants. L’interprétation de ces augmentations d’amplitude a été

    contestée mais Donchin et al., (1975) ont montré que l’augmentation de la composante P300 n'est

    pas un artefact dû à la préparation motrice et qu’elle est indépendante de la Variation Contingente

    Negative (VCN). La VCN mise en évidence pour la première fois par Walter (1964) est encore

    appelée onde d'expectative. Cette composante négative fronto-centrale se développe durant un

    intervalle de temps fixe séparant deux stimuli et se termine lors de la présentation du stimulus

    évoquant la réponse par un rebond positif qui pouvait ressembler à la P300. En outre elle est

    caractéristique des situations où la présentation d’un premier stimulus annonce qu’un deuxième

    stimulus sera présenté auquel le participant doit répondre. Finalement, les résultats de nombreux

    travaux ont confirmé l’hypothèse que l'attention sélectivement dirigée vers stimulus induisait une

    augmentation d’amplitude des réponses évoquées par ces stimulations.

    Notons que les tracés EEG sont constitués de variations isolées et de rythmes (variations

    d’activité cérébrale périodiques). Ces fluctuations apparaissent seules ou combinées pour former

    des graphoéléments caractéristiques de l’âge, de l’état neurologique, de l’état de vigilance... Les

    rythmes corticaux se distinguent en fonction de leur fréquence : on observe en particulier les

    rythmes gamma (>28 Hz), bêta (12-28 Hz), alpha (8-12 Hz), thêta (3-7 Hz) et delta (0-3 Hz). Les

    fonctions du rythme gamma font l’objet de nombreux travaux car il caractérise l'activité consciente,

    il est impliqué dans les processus cognitifs en phase d'éveil et il est également présent lors de la

    phase de sommeil paradoxal. Enfin, il semblerait qu’il joue un rôle important dans l’intégration de

    différentes informations perceptives en un concept cohérent et dans le couplage des processus

    cognitif (i.e., binding ; Tallon-Baudry & Bertrand, 1999 ; Engel & Singer, 2001).

    2) La Magnétoencéphalographie (MEG)

    La MEG (voir Figure 13) est, comme la méthode des PEs, une mesure directe de l’activité du

    cerveau en temps réel, et elle partage avec elle certaines caractéristiques : une excellente résolution

    temporelle mais une résolution spatiale limitée.

    27

  • Système d’enregistrement des données magnétoencéphalographiques (MEG), à gauche système

    situé à l’ INSERM Lyon U 821 (http://u821.lyon.inserm.fr/_ressources/index.php)

    Figure 13. Signaux enregistrés en réponse à un son. Le maximum d’amplitude se trouve 100

    millisecondes après l'apparition d'un son (début du graphisme).

    Néanmoins, ces deux méthodes diffèrent sur certains points et leur association est considérée

    comme complémentaire plutôt que redondante. Le premier point est leur différence de sensibilité à

    l’orientation spatiale des dipôles. Les courants résultant de l’activité d’une macrocolonne de

    neurones (mise en synchronie dans le temps et l’espace d’une assemblée de cellules comportant

    environ 104 neurones dans quelques millimètres cube de cortex) sont modélisés par un dipôle de

    courant, dont la direction est donnée par l’orientation principale des dendrites, perpendiculairement

    localement à la surface corticale. Un dipôle de courant crée un flux de champ magnétique entrant et

    sortant de chaque côté du dipôle, alors qu’il crée un potentiel électrique positif au dessus de lui et

    négatif en dessous (Figure 14).

    28

  • Figure 14: Cartographies des champs magnétiques (a) et potentiels électriques (b) créés par un

    dipôle de courant.

    En MEG et en EEG on distingue deux types de dipôles de courant suivant leur direction: ceux

    qui ont une orientation perpendiculaire à la surface du scalp (source radiale), et correspondant aux

    activations des gyri du cortex, et ceux qui ont une orientation tangentielle à la surface du scalp et

    correspondant aux colonnes de neurones dans les sillons (Figure 15).

    Figure 15. Définition des dipôles de courant radiaux et tangentiels. (à gauche) macrocolonne de

    neurones et dipôle de courant équivalent, (à droite) schématisation d’une partie de la surface

    corticale et des orientations de dipôles de courants équivalents.

    L’orientation des dipôles tangentiels, à l’inverse des dipôles radiaux, entraine la génération

    d’un champ magnétique élevé et d’un courant électrique faible. La MEG est ainsi plus sensible aux

    dipôles tangentiels qu’aux dipôles radiaux. Le second point est la différence de sensibilité à la

    distance entre sources génératrices et capteurs. Cette distance influence plus largement la force du

    29

  • champ magnétique (i.e., plus la distance est grande, plus la force du champ magnétique diminue)

    que la force du courant électrique. Par conséquent, la contribution des sources profondes au signal

    enregistré est plus importante en PEs qu’en MEG. Il est important de noter que l’association de ces

    deux méthodes, grâce à leur différence de sensibilité, permet de contraindre l’interprétation des

    données concernant la localisation des sources neuronales à l’origine des effets observés. De

    nombreux auteurs ont exploité cette complémentarité pour inférer l’origine des sources génératrices

    (Wood et al, 1985) ou développer des méthodes de résolution du problème inverse exploitant au

    mieux ces différences (Diekman et al, 1998 ; Baillet et al, 1999).

    B. Les méthodes métaboliques

    1) La Tomographie par Emission de Positrons (TEP)

    La TEP permet de visualiser les variations du métabolisme du cerveau, avec une résolution

    spatiale de l’ordre de plusieurs millimètres. Cette méthode rend possible la localisation spatiale des

    zones activées dans différentes tâches perceptives, cognitives ou motrices. La TEP est basée sur la

    radioactivité de certaines molécules (généralement l’oxygène 15, l’azote 13, ou le carbone 11). Ces

    molécules radioactives, marquées par des isotopes du carbone, du fluor ou de l’oxygène, sont

    injectées chez le participant par voie intraveineuse. Ces molécules étant instables, elles se

    désintègrent assez rapidement en émettant un positron. Dés que celui-ci rencontre un électron, une

    réaction d’annihilation se produit entre l’électron et le positron ce qui induit l’émission de deux

    photons gamma dans des directions diamétralement opposées. La quantité de rayonnement gamma

    est proportionnelle à la concentration locale de l’isotope radioactif. Le principe de base de la TEP

    consiste donc à détecter ce rayonnement gamma à l’aide de capteurs disposés autour de la tête du

    participant (voir Figure 16). Lors de la réalisation d’une tâche cognitive, certaines zones du cerveau

    sont activées. Cette activation neuronale implique une augmentation des besoins énergétiques en

    oxygène et en glucose qui se traduit par une augmentation du débit sanguin local (réponse

    hémodynamique). La concentration en oxygène et donc en molécules radioactives (i.e., oxygène

    15) augmente dans les zones activées du cerveau : le nombre de collisions et le nombre de photons

    émis (détectables par la caméra TEP) est donc plus grand. Les régions activées sont ainsi repérées

    grâce à l’accumulation du produit radioactif sous la forme d’une image d’hyperfixation. L'imagerie

    cérébrale TEP reflète donc l'apport d'énergie plutôt que l'activité cérébrale proprement dite.

    30

  • Figure 16. Imageur pour la Tomographie par Emission de Positrons (TEP scan situé à Reims

    Institut Jean-Godinot)

    Notons également que cette technique est invasive (contrairement aux méthodes

    électromagnétiques et à l’IRMf, voir ci-dessous) puisqu’elle repose sur l’injection de molécules

    radioactives. Enfin, la réponse vasculaire cérébrale se développe environ 2 secondes après le début

    de l’activité neuronale et atteint son maximum d’amplitude 5 à 7 secondes après le début de la

    stimulation (Cohen, 1997). Ce délai est largement supérieur à la durée moyenne des opérations

    cognitives et diminue la résolution temporelle de cette méthode (ainsi que celle de la méthode

    d’IRM).

    2) L’Imagerie par Résonance Magnétique anatomique (IRM) et fonctionnelle (IRMf)

    L’IRM anatomique permet d'avoir une vue 2D ou 3D de la structure du cerveau et l’IRM

    fonctionnelle permet de localiser, avec une précision de l’ordre du millimètre, les zones cérébrales

    dans lesquelles le débit sanguin augmente lors de différentes activités perceptives, cognitives ou

    motrices (Figure 17). Ces deux méthodes sont basées sur le principe de la Résonance Magnétique

    Nucléaire (RMN) qui permet d’analyser, avec une excellente résolution spatiale, différents tissus.

    31

  • Figure 17. Image d’IRM anatomique classique en haut, Image d’IRM fonctionnelle classique après

    sélection d’un seuil statistique d’activation, en bas, merci à Marieke Longcamp qui m’a

    généreusement donné ces figures.

    Le sujet est placé dans un champ magnétique élevé (de 1,5 à 7 Teslas) qui permet de

    modifier les propriétés magnétiques de noyaux de certains atomes. La majorité des mesures en IRM

    exploitent essentiellement les propriétés magnétiques des noyaux d’hydrogène (ou proton) qui sont

    présents en grande quantité dans les tissus biologiques. L’obtention du signal RMN est réalisée en

    deux étapes. Dans un premier temps, le champ magnétique induit un alignement du spin des

    protons (i.e., vecteur représentant l’axe de rotation) de l’atome d’hydrogène en position parallèle ou

    en position antiparallèle par rapport au sens du champ magnétique. Toutefois, ces deux positions

    correspondent à des niveaux d’énergie différents qui ne sont pas équivalents : il faut, en effet,

    moins d’énergie pour mettre un proton en position parallèle qu’en position antiparallèle. Par

    conséquent, il y a plus de protons en position parallèle qu’en position antiparallèle.

    Une fois les protons alignés dans le champ magnétique, un apport énergétique sous forme

    d’ondes de radiofréquence (RF) est appliqué, dont la fréquence correspond à la fréquence de

    résonnance des protons. Ceux-ci entrent alors en résonnance et s’alignent en position antiparallèle.

    Lors de l’arrêt de l’émission de l’onde de RF, les protons reprennent leur position originale (i.e.,

    parallèle au champ magnétique) et restituent l’énergie sous forme d’une sinusoïde amortie : le

    32

  • signal de RMN. Or, ce signal diffère selon la composition des tissus en eau (graisse, os..) et la carte

    des signaux RMN reproduit l’anatomie des tissus (IRM anatomique).

    L’IRMf permet de localiser les zones cérébrales activées grâce à l’effet BOLD (Blood

    Oxygenation Level Dependant ; Ogawa et al., 1990 ; Kwong et al., 1992) lié aux propriétés

    d’aimantation de l’hémoglobine contenue dans les globules rouges du sang. Ainsi, l’IRMf repose

    sur les propriétés d’un produit de contraste endogène, l’hémoglobine, et non exogène, comme la

    TEP. Dans l’organisme, l’hémoglobine se trouve sous deux formes : l’oxyhémoglobine et la

    désoxyhémoglobine. L’oxyhémoglobine (contenue dans les globules rouges oxygénés par les

    poumons) est diamagnétique, c’est-à-dire qu’elle influence peu le champ magnétique local (i.e., sa

    susceptibilité magnétique est faible). En revanche, la désoxyhémoglobine (contenue dans les

    globules rouges désoxygénés par les tissus) est paramagnétique, c’est-à-dire qu’elle influence plus

    largement le champ magnétique local (i.e., sa susceptibilité magnétique est forte), ce qui perturbe le

    champ magnétique local et diminue donc le signal de RMN.

    L’activation d’une zone cérébrale entraîne l’augmentation locale du débit sanguin et donc la

    concentration en oxygène qui est alors plus importante que la concentration nécessaire aux tissus.

    Le taux d’oxyhémoglobine est ainsi supérieur à celui de la désoxyhémoglobine. La variation locale

    de susceptibilité magnétique est donc faible et le signal de RMN est fort (faible concentration en

    désoxyhémoglobine): il s’agit de l’effet BOLD. Le couplage neurovasculaire prend cinq à six

    secondes pour atteindre son maximum, d’où la faible résolution de l’IRMf. Cependant,

    l’acquisition rapide d’images du cerveau grâce aux séquences «Echo Planar Imaging» (EPI) permet

    néanmoins de suivre l’évolution du signal BOLD en réponse à une activité donnée et d’obtenir des

    images du cerveau entier (volume cérébral) en quelques secondes, typiquement 2 à 3 secondes.

    Ainsi, la méthode IRMf partage l’inconvénient de la méthode TEP puisque toutes les deux

    mesurent l’activité métabolique et donc, les variations hémodynamiques régionales secondaires aux

    modifications de l’activité neuronale induites par une tâche donnée. Contrairement à la méthode des

    PEs, ou à la MEG, la résolution temporelle de l’IRMf est donc plutôt faible. Par ailleurs, un autre

    inconvénient est lié au fait que le sujet est allongé à l’intérieur d’un tube étroit dans lequel il doit

    rester complètement immobile. Enfin, le bruit important, résultant du fonctionnement du scanner

    IRM (la production d’impulsions électromagnétiques par les gradients) est très intense (environ 130

    dB, des bouchons de protections auditives sont utilisés), ce qui rend difficile l’utilisation de stimuli

    auditifs présentant des caractéristiques acoustiques fines. Toutefois, il est possible d’intercaler la

    présentation des stimuli auditifs avec les séquences de scans très bruyantes pour diminuer les

    interférences entre les deux types de sons. Ce type de séquence dite « sparse imaging » consiste à

    envoyer un stimulus sonore de quelques secondes durant une période silencieuse et de commencer

    l’acquisition dans un second temps (Belin et al., 1999). La latence de 4 à 7 secondes de la réponse

    33

  • hémodynamique permet ainsi d’enregistrer l’activité cérébrale en « différé ». Bien que largement

    utilisé, ce type de séquence implique que les stimuli auditifs présentés soient de courte durée

    (quelques secondes). Par ailleurs, Ghio et al., (2004) ont récemment développé un système

    permettant une stimulation sonore de qualité et de longue durée au cours d’un bloc continu

    d’acquisition IRM.

    Même si l’IRMf et la TEP ne permettent pas d’obtenir d’informations précises sur la

    chronométrie des événements étudiés, elles permettent d’étudier la connectivité cérébrale qui

    consiste à déterminer les relations que les différentes parties d’un réseau neuronal vont tisser entre

    elles. Par exemple, l'imagerie par tenseurs de diffusion (Diffusion Tensor Imaging, DTI) mesure la

    diffusion des molécules d'eau le long des axones de la substance blanche, ce qui permet d'obtenir

    des informations sur les changements architecturaux de l'orientation des fibres et sur la connectivité

    cérébrale durant le développement cérébral, après lésions cérébrales, ou après un apprentissage.

    L'imagerie par volumétrie IRM tridimensionnelle permet de quantifier le volume total de matière

    blanche et de matière grise cérébrale, ainsi que la quantité de myéline formée, ce qui permet

    d'étudier leur implication dans le développement et dans les phénomènes de plasticité cérébrale.

    Enfin, l’utilisation conjointe des mesures hémodynamiques et électromagnétiques offre une

    solution idéale pour étudier les activations cérébrales avec une haute résolution spatiale et

    temporelle. Cette approche combinée permet d’exploiter les meilleurs aspects de chaque technique

    et offre une caractérisation plus complète des différentes facettes de l’activité cérébrale engagée

    dans les processus neurophysiologiques. Cependant, cette mesure simultanée pose des problèmes

    très complexes qui commencent à être résolus grâce aux avancées technologiques telles que le

    développement d’un matériel EEG non-magnétique ou la mise en place de nouvelles techniques de

    débruitage du signal EEG enregistré car les séquences d’acquisition d’images IRM contaminent le

    signal EEG (Bénar et al., 2007).

    34

  • Chapitre III.

    Influence de l’expertise musicale sur le traitement des sons

    A. Expertise musicale et plasticité cérébrale

    Le terme « expertise musicale » ou « sujet musicien » sont des termes génériques qui

    doivent être définis. Dans nos études, le terme « musicien » désigne le plus souvent des étudiants

    issus des conservatoires nationaux de musique (niveau fin d'étude et conservatoire supérieur). Ces

    étudiants se destinent à une carrière de musiciens professionnels et ont appris pendant plusieurs

    années des techniques musicales, instrumentales et la théorie de la musique. L'avantage

    expérimental de ces jeunes musiciens est que leurs compétences ont été régulièrement testées et

    validées chaque année par des examens formels qui leur permettent d'accéder à une classe

    supérieure. Leur niveau d'expertise musicale est donc connu. Le terme de musicien professionnel

    fait le plus souvent référence à des musiciens un peu plus âgés, qui font une carrière musicale, c'est

    à dire qu'ils ont atteint un niveau « optimum » dans la pratique de leur instrument. Enfin, les

    participants non-musiciens sont, dans la majorité des études, issus d'une même classe d'âge que les

    musiciens choisis, mais ils n’ont aucune formation musicale spécifique en dehors des

    enseignements généraux de musique généralement dispensés dans les collèges ou lycées. Notons

    que le choix des participants peut-être plus spécifique lorsque le but de l'étude est de comparer, par

    exemple, l'influence de différents types d'apprentissage de la musique (i.e., apprentissage basé sur

    l’écoute et l’improvisation versus apprentissage basé sur la lecture de partitions), ou l'influence de

    la pratique d'un instrument par rapport à un autre instrument (i.e., piano versus violon), ou encore

    de comparer des musiciens qui ont l’oreille absolue et d’autres qui ne l’ont pas.

    L’idée que les musiciens constituent un modèle pertinent et idéal pour évaluer les effets

    de plasticité cérébrale induits par la mise en place d’une expertise spécifique chez l'homme est

    maintenant largement acceptée dans la littérature (Jäncke, 2002 ; Münte et al., 2002 ; Schlaug,

    2001). Il est en effet relativement facile de constituer des groupes homogènes de musiciens et de

    non-musiciens qui diffèrent principalement sur la dimension expertise musicale, les autres facteurs

    importants (i.e., sexe, niveau socio-culturel, niveau d’éducation, latéralité, etc...) étant contrôlés.

    Les études qui ont eu pour but de cerner l'influence de l'expertise musicale grâce à l’utilisation de

    méthodes d'imagerie cérébrales, de plus en plus performantes, se sont largement développées ces

    dernières années. Dans ce chapitre, mon but est de présenter un résumé, malheureusement non-

    exhaustif, des principales découvertes récentes dans ce domaine.

    Au niveau structural, de nombreuses études ont mis en évidence des différences au

    niveau de la taille de plusieurs structures cérébrales qui sont généralement plus développées chez

    35

  • les musiciens que chez les non musiciens.

    Il s’agit du corps calleux (Schlaug et al., 1995b ; Schmithorst et al., 2002), du planum

    temporale - plus développé dans l’hémisphère gauche que dans l’hémisphère droit chez des

    musiciens qui ont l’oreille absolue2- (Keenan et al., 2001 ; Luders et al., 2004 ; Schlaug et al.,

    1995a), de la bande postérieure du gyrus précentral -prise comme mesure de la taille du cortex

    moteur primaire-, plus symétrique chez les pianistes que chez des sujets non musiciens, de certaines

    parties du cervelet (Hutchinson et al., 2003), de la partie antéro-médiale du gyrus de Heschl

    (Schneider et al., 2002), du gyrus frontal inférieur et de la partie latérale inférieure du lobe temporal

    (Gaser & Schlaug, 2003 ; Luders et al., 2004).

    Dans un premier temps, les méthodes d'imageries cérébrales ont donc permis de mettre

    en évidence des différences anatomiques entre musiciens et non-musiciens. Dans un deuxième

    temps, de nombreux travaux ont montré que ces différences anatomiques sont associées à des

    différences fonctionnelles lorsque les participants, musiciens et non musiciens, sont impliqués dans

    différentes tâches motrices, perceptives ou cognitives, qui nécessitent de taper avec les doigts,

    d'écouter ou de mémoriser des pièces musicales, de discriminer des sons, des variations

    harmoniques, mélodiques ou rythmiques (Altenmueller, 1986 ; Bangert et al., 2006 ; Besson et al.,

    1994, 1995 ; Gaab & Schlaug, 2003 ; Gaab et al., 2006 ; Hund-Georgiadis et Von-Cramon, 1999 ;

    Jäncke et al., 2000 ; Koelsch et al., 2000, 2002a et 2005b ; Koeneke et al., 2004 ; Mazziotta et al.,

    1982 ; Nager et al., 2003 ; Ohnishi et al., 2001 ; Pantev et al., 1998 ; Schneider et al., 2002 ; Shahin

    et al., 2003 , 2004 et 2005). Ces différences fonctionnelles ont été étudiées en utilisant les méthodes

    d’analyse directes (PEs et MEG) ou indirectes (TEP et IRMf) de l’activité cérébrale. Nous

    présentons ici une rapide revue de ces premières découvertes.

    Dans l’une des premières études utilisant la MEG, Elbert et al. (1995) ont montré que les

    représentations corticales des doigts de la main gauche de violonistes professionnels sont plus

    développées que chez des sujets non musiciens, alors qu’aucune différence entre groupes n’est

    trouvée pour les représentations des doigts de la main droite qui tient l’archer. Toujours en utilisant

    la MEG, Pantev et collaborateurs (1998) ont montré que les réponses corticales évoquées par des

    sons de piano sont plus amples chez des pianistes que chez des non musiciens, alors qu’aucune

    différence n’émerge entre les deux groupes lors de la présentation de sons sinusoïdaux. De plus,

    une corrélation positive entre l’âge auquel les musiciens adultes ont commencé l’apprentissage de

    la musique et l’amplitude des réponses corticales évoquées par des sons d’instruments a été établie.

    Puis, en utilisant la méthode des PEs, Trainor et al. (1999) ont montré une corrélation similaire avec

    l’amplitude de la composante P300. D'autre travaux représentatifs montrent que l’âge auquel

    2 L'oreille absolue, par opposition à l'oreille relative, est la faculté de pouvoir identifier une note musicale en l’absence de référence.

    36

  • débute l’apprentissage musical a une forte influence sur les modifications anatomo-fonctionnelles

    observées au niveau des structures cérébrales impliquées dans la réalisation de l’activité (Amunts et

    al., 1997 ; Jäncke et al., 1997 ; Jäncke, 2002 ; Lotze et al., 2003 ; Schlaug et al. 1995a, 2001). Par la

    suite, il a également été montré que l’intensité de la pratique musicale pouvait être corrélée au

    niveau d’expertise musicale (Howe et al., 2000) et à l’augmentation du volume de matière grise

    dans les zones cérébrales responsables de ces habiletés musicales (Gaser et Schlaug, 2003 ;

    Schneider et al., 2002). Par exemple, Gaser et Schlaug (2003) ont démontré, en utilisant la méthode

    de « voxel based morphometry », l’existence de corrélations positives entre le niveau d’expertise

    musicale et l’augmentation de matière grise dans les régions motrices et somato-sensorielles

    primaires, les aires prémotrices et pariétales supérieures et le gyrus temporal inférieur. Le volume

    de matière grise est, en outre, plus important à gauche, dans le gyrus de Heschl, le gyrus frontal

    inférieur et le cervelet.

    Enfin, une étude importante dans ce domaine a permis d’établir un lien entre MEG et IRM

    (Schneider et al., 2002). Des sons purs d’une durée de 1 seconde et modulés en amplitude étaient

    présentés à des musiciens professionnels, des musiciens amateurs et des non musiciens. Dans une

    première expérience, les participants écoutaient passivement ces sons tout en regardant un film

    muet, et dans l’autre expérience, qui sert de contrôle, ils devaient détecter des sons déviants. Les

    résultats montrent que l’amplitude des composantes de latence moyenne (N19m et P30m) était

    102% plus ample chez les musiciens professionnels que chez les non musiciens, et 37% plus ample

    chez les musiciens amateurs que chez les non musiciens. En outre, pour les musiciens

    professionnels, l’amplitude des dipôles est significativement plus grande dans l’hémisphère droit

    que dans l’hémisphère gauche, alors que ces différences ne sont pas significatives pour les non-

    musiciens. Enfin, le volume de matière grise dans la partie antéro-mé