Aller à la navigation | Aller au contenu

déméter
Description de votre site

L'interprétation

Vincent Tiffon

L’interprétation des enregistrements et l’enregistrement des interprétations : approche médiologique

Résumé

L’interprète est un médiateur, nous dit le médiologue, car « rien ne se transmet de soi »1. Avec la « révolution électrique », nous changeons de médiasphère : nous passons d’un paradigme basé sur le processus écriture/partition/interprétation/audition à la logique apparemment plus directe d’une écriture/fixation/projection/audition. On passe donc d’une « graphosphère » organisée autour de l’écrit (et sa technologie « papier ») dans laquelle l’interprète a une fonction centrale, à une « vidéosphère » régie par l’audiovisuel, caractérisée par l’instantanéité, dotée de ses technologies propres dans laquelle les rôles, les fonctions et les modes d’existence de l’interprète changent. Mais en quoi consiste précisément l’interprétation des musiques enregistrées (les musiques électroacoustiques, c’est-à-dire les musiques de sons fixés sur support électronique), et quels sont les enjeux de l’enregistrement des musiques interprétées (les musiques écrites sur papier) ? Dans la musique électroacoustique, les sons « fixés sur un support » sont-ils véritablement « interprétés » ? Ne sont-ils pas seulement « révélés » comme le photographe révèle un négatif ? Dans les interprétations enregistrées, quel est le statut de l’objet disque ? Nous sommes ainsi tentés de traiter, dans un premier temps, la question de la médiation (à travers la définition du statut de l’enregistrement) pour mieux comprendre, dans un second temps, le problème spécifique de l’interprétation des musiques électroacoustiques et/ou acousmatiques.

Texte intégral

George Steiner, dans Réelles présences2, rappelle les trois principales fonctions de l’interprète : « c’est un individu qui déchiffre et communique des significations » ; un traducteur d’une « convention de représentation à une autre » ; enfin, un « exécutant » dans l’immédiateté. Par conséquent, l’interprète est « responsable » dans la mesure où il s’engage personnellement. L’interprétation est alors herméneutique : elle permet d’entrer dans l’univers de la création. Aucun critique et/ou musicologue, selon Steiner, ne pourra atteindre ce degré de relecture atteint par l’interprète lorsqu’il joue en direct. Ainsi, « l’art est la meilleure lecture de l’art »3. Si le musicologue peut sembler parasitaire, sa fonction est néanmoins de proposer des « modèles macroscopiques de conceptualisation »4. C’est par l’approche médiologique que nous proposerons d’« interpréter » la question de l’interprétation à l’âge de la phono-fixation, c’est-à-dire de l’enregistrement sonore.

Il sera question ici de « l’interprétation des enregistrements et de l’enregistrement des interprétations ». S’agit-il d’un simple chiasme cher à Régis Debray ? Son goût des bons mots et des belles formules ne doit pas faire oublier l’acuité de sa pensée en matière « d’examen raisonné des interactions unissant techniques de transmission et transport, productions symboliques et pratiques sociales »5. Quels sont les angles d’analyse que propose la médiologie ? On s’efforcera d’observer comment les technologies de l’enregistrement ont permis l’émergence d’une musique qui fait table rase du support papier (et d’en analyser les conséquences). Inversement, on étudiera l’apport des techniques de studio dans les interprétations enregistrées des musiques écrites (sur papier). Quelle est la place de l’interprète en vidéophère ? Qu’est-ce qu’interpréter une musique enregistrée ? Or la médiologie vise à « rétablir la continuité du matériel et du symbolique ». On s’interrogera donc sur l’apport de la technologie de la « phono-fixation » (du phonographe aux enregistrements numériques) dans l’écriture électroacoustique et dans l’interprétation instrumentale. Notre perception musicale en est bouleversée puisque nous sommes placés en situation acousmatique. Quel rôle peut alors avoir l’interprète face à ce nouvel écosystème ?

Quelques enjeux de l’interprétation dans la vidéosphère

Parcours médiologique

Une médiologie du fait musical nous paraît essentielle pour tenter de comprendre les enjeux de l’interprétation de la musique enregistrée comme de l’enregistrement des interprétations. Il est utile sans doute d’introduire « le concept de “paradigme technologique” en musicologie générale »6 en étudiant les « trois technologies de production musicale »7. Ces trois technologies correspondent approximativement aux trois médiasphères (la logosphère, la graphosphère, la vidéosphère), triade8 qui fait écho à d’autres triades chères aux sciences de l’information et de la communication comme à la sémiologie. Cette dernière, comme la médiologie, n’est pas pour autant une discipline relevant des sciences de l’information et de la communication. La médiologie permet de mieux comprendre les interactions entre les objets techniques et l’art : elle se donne pour objectif d’observer les « interférences entre nos techniques de mémorisation, de transmission et de déplacement d’une part, et nos modes de croyance, de pensée et d’organisation, d’autre part »9 afin de « rendre lisible une logique d’écart »10.

Dans la logosphère, l’écrit n’est pas absent, mais il demeure un simple outil de transcription, de mémorisation, et non de création. Ces supports écrits (papyrus, parchemin…) sont peu fiables car fragiles et faiblement reproductibles, d’où le recours aux copistes qui peuvent alors introduire des erreurs ou modifier intentionnellement l’original. Le vecteur privilégié de la transmission passe par l’oralité sous forme simplifiée (le « modèle », selon la terminologie de Shima Arom). L’expansion du « répertoire » est lente. Par définition, ce type de transmission impose l’anonymat des auteurs (le concept d’auteurs ou de compositeurs n’existe pas encore), et génère des processus de création spécifiques, comme l’improvisation. La dimension de l’improvisation est centrale car dépendante des modes de mémorisation inhérents à cette médiasphère : la transmission par « tradition orale » ne permet pas la fixation sur un support matériel faute de support fiable. L’Eglise, en cherchant à encadrer la pratique cultuelle, sera à l’origine des premières transcriptions aide-mémoire du chant dit « grégorien »11, première pierre de la révolution suivante, celle de l’appropriation du support comme technologie de création.

Le passage progressif de la logosphère à la graphosphère va de pair avec le changement de statut de la mémoire : la partition n’est plus seulement un support mémoriel (Jean-Sébastien Bach transcrivant les œuvres de Vivaldi) mais devient un support de création originale (J.S. Bach écrivant le Clavier bien tempéré). À partir du xive siècle avec l’Ars Nova (appellation idoine), sont inventés des procédés d’écriture, inconcevables sans l’aide du papier, support technologique plus performant que le parchemin ou les autres supports antérieurs. Le rondeau de Machaut Ma fin est mon Commencement en est un des exemples emblématiques, comme tous les palindromes musicaux. Ces processus révèlent une « technique d’invention [qui] s’appuie sur une représentation visuelle »12. La représentation graphique, plane, en deux dimensions, suscite l’« artifice d’écriture » dont parle Hugues Dufourt. Mais en graphosphère, l’improvisation et les traces des processus de la logosphère perdurent, car « si Jean-Sébastien Bach a été capable d’improviser des fugues à quatre voix, c’est parce qu’il en avait écrit des centaines auparavant »13.

Dans la graphosphère, du côté « logistique »14, on parlera d’un instrumentarium, du papier à musique, etc. ; du côté « stratégique », on fera référence au « style classique », à l’imprimerie (des partitions), aux institutions de concerts (Concerts Colonne…) et de formation (Ecoles, Conservatoires…). Un tel bouleversement paradigmatique à la suite duquel « l’écriture [devient] une technologie de création »15, a entraîné des bouleversements majeurs. La nouvelle figure du compositeur à sa table, solitaire, même s’il s’inscrit dans une filiation de pensée ou de création, suggère que l’écriture créatrice devient un acte personnel qui s’accompagne d’une signature. Ainsi, le compositeur tend à contrôler toujours davantage le processus de production, d’autant qu’il est, dans un premier temps, l’interprète de ses œuvres. Avec la complexification des processus d’écriture comme le développement de la facture instrumentale (l’orchestre), le compositeur doit déléguer aux «  interprètes » la tâche de médiation entre l’œuvre (constituée par la partition) et l’auditeur (nouvelle figure qui émerge progressivement). S’instaure alors un rapport ambigu entre le compositeur et l’interprète : alors que le compositeur recherche la notation susceptible d’être la plus fidèle à son désir intérieur, l’interprète profitera de son hyperspécialisation pour revendiquer une autonomie, y compris vis-à-vis de l’œuvre. Avec la création d’un « public » pour la musique, le souci archéologique à l’endroit des œuvres du passé va naître. Peut ainsi voir le jour la musicologie, discipline dont l’objet est l’étude des « Matières Organisées » (organologie, étude des manuscrits, étude des textes des compositeurs…) comme des « Organisations Matérialisées » que sont les institutions telles les écoles, les conservatoires, les concerts, les festivals.

Avec la révolution électrique apparaît le « paradigme électroacoustique »16. On entre dans la vidéosphère17. Le médium « enregistrement » est à la fois support matériel d’inscription et de stockage – sorte de prothèse mémorielle18 (le Gramophone d’Edison a été conçu originellement comme technique de mémorisation des discours des hommes célèbres) – mais aussi, comme procédé de symbolisation (l’écriture électroacoustique à travers la manipulation des bandes magnétiques à l’origine de la musique électroacoustique). À cette nouvelle ère correspondent de nouveaux modes de diffusion (le réseau, tout d’abord hertzien – et l’on connaît l’importance de la radio dans la genèse de la musique concrète et électronique – jusqu’au réseau de l’Internet qui ouvre l’hypersphère). Les conséquences, là encore, sont majeures. Avec l’enregistrement, on entérine la duplication à l’identique de l’œuvre (qui altérerait, selon Walter Benjamin, l’ « aura » de l’œuvre19). Mais l’enregistrement provoque également ce que Bernard Stiegler appelle des « temporalités hétérogènes »20, c’est-à-dire une manière de juxtaposer des mémoires différentes. L’immédiate accessibilité aux œuvres est également une conséquence majeure à la fois du médium radio et du médium enregistrement. L’écoute musicale est ainsi profondément modifiée puisque l’ensemble des sources musicales mondiales devient potentiellement disponible via la radio. Béla Bartók, en 1938, pourtant « consommateur » et utilisateur de l’enregistrement dans le cadre d’études d’ethnomusicologie, s’inquiète de cette facilité nouvelle offerte à l’auditeur : « L’extension de l’usage de la radio et du gramophone serait très préjudiciable si, au lieu d’en éveiller le désir, elle déshabituait les gens d’une pratique musicale active. »21 Or, « l’effet-jogging » semble ici jouer, comme à l’occasion d’autres inventions techniques. En médiologie, on appelle « effet jogging » le principe de « l’effet rétrograde du progrès matériel »22, en référence à la pratique de la course à pied qui apparaît peu après l’invention de l’automobile pour compenser une perte d’activité physique. Ainsi, le médium de diffusion qu’est la radio et le médium de création qu’est l’enregistrement, au lieu de reproduire les pratiques artistiques déjà existantes, semblent les avoir encouragées tout en les transformant (cf. l’art radiophonique, la musique concrète, la musique électronique, etc.). Toute une écologie sonore est ainsi repensée.

Comme pour le papier, l’enregistrement est à la fois médium de transmission et médium de création. Mais l’enregistrement induit une nouvelle forme d’écriture – à cet égard, il serait peut-être plus approprié de parler « d’écriture cinétique ». La notion « d’artifice d’écriture » tend à disparaître au profit de l’interactivité : le son immédiatement produit peut appeler des transformations immédiates, par effet d’aller-retour (à l’exception de la composition assistée par ordinateur et la synthèse directe en temps différé, etc., c’est-à-dire l’ensemble des musiques qui utilisent l’ordinateur comme interface à une écriture de la graphosphère et non pas comme « écriture électronique »). Le musicien électronique cherche moins à supprimer l’interprète qu’à satisfaire ses désirs artistiques. Faut-il y voir une fascination du son, fascination qui traverse le XXe siècle, des précurseurs comme Debussy jusqu’aux musiciens spectraux en passant par certains musiciens répétitifs (tournés vers les questions de psychoacoustique) ? Le nouveau principe fondateur de la composition est bien de « composer le son lui-même », pour reprendre les termes de Jean-Claude Risset, bien que dans son oeuvre cette idée prenne forme dans une écriture électronique en temps différé ; idée que l’on retrouve, par exemple, dans les interprétations fixées sur support (les enregistrements) de Gould. Le soin que ce dernier apporte au choix du piano pour ses enregistrements tend à le prouver23.

Reste que le médium n’est pas neutre. « À la différence de ce qui se passe en littérature ou en peinture, la technique de reproduction est pour le film, [on peut élargir aux musiques des « sons fixés sur support »24 comme à certains enregistrements d’interprètes comme Gould] une simple condition extérieure qui en permettrait la diffusion massive ; sa technique de production de l’œuvre fonde directement sa technique de reproduction »25. Or, l’histoire de l’enregistrement nous enseigne qu’Edison ne soupçonnait pas les possibilités de duplication de l’enregistrement à l’échelle mondiale ni les progrès en matière de fidélité par rapport à l’original (le phonographe avait une bande passante très faible de 6000 Hz maximum avant 1945). On peut donc assurément, comme le souligne Bernard Stiegler, inverser les termes de la proposition de Walter Benjamin : c’est la reproductibilité qui génère, induit la productibilité. Plus encore, c’est l’interaction entre cette technique et son usage qui produit cette mutation paradigmatique dont parle François Delalande.

Paradoxalement, l’enregistrement en tant que technique permet non seulement de multiplier les interprétations des musiques écrites (chaque nouvelle révolution technique a permis l’édition exponentielle d’enregistrements des musiques écrites ; ce fut le cas lors du passage du 78 tours au 33 1/3 tours, puis du 33 1/3 tours au CD) mais aussi de se dispenser, en théorie, de la présence des interprètes dans le cas de la musique électroacoustique. Dans ce dernier cas, l’interprétation via un système de projection sonore, nouvel intermédiaire parfois automatisé, se situe à un autre plan (cf. chapitre 2). Ainsi, avec la vidéosphère, on assiste à la constitution d’un nouveau système global et cohérent, qui va de l’outil (les moyens électroacoustiques, d’où le nom de « musique électroacoustique ») jusqu’aux réseaux de diffusion (des enregistrements jusqu’à l’Internet). En vidéosphère, la musique appartient au monde de l’audiovisuel (mêmes supports – magnétiques puis numériques, mêmes vecteurs techniques, mêmes stratégies organisationnelles – comme par exemple le GRM, Groupe de Recherche Musicale, qui dépend de l’INA, l’Institut National de l’Audiovisuel, dont il faut rappeler que l’un des créateurs fut Pierre Schaeffer). L’ère de la vidéosphère nous engage à reconsidérer les notions mêmes « d’instruments », « d’interprètes» voire de « musique ». Relevons les quelques traits spécifiques du statut de l’enregistrement.

Le statut de l’enregistrement

« D'une invention à l'autre, les techniques de reproduction améliorent l'indicialité des traces. [...] Le phonographe a appliqué au son, peu de temps après, la même procédure miraculeuse que la photographie pour les formes : la survie par l'embaumement. Le rendu sonore du CD est plus indiciel que le microsillon, qui l'était plus que le 78 tours »26. Comme par ailleurs on est souvent face à « l’effet-cliquet » (effet en vertu duquel on ne revient pas sur une invention qui améliore l’invention précédente s’y rapportant), Régis Debray (comme Walter Benjamin avant lui) nous rappelle qu’avec l’enregistrement, on glisse progressivement du modèle scripturaire au modèle indiciel. De même, on pourrait ajouter que l’on glisse du temps différé vers le temps réel. Un tel constat généralise la posture de l’auditeur en situation acousmatique27.

Mais restons un moment sur le cas spécifique des enregistrements de concert. Encore une fois, l’histoire de l’enregistrement nous apprend que « l’effet-diligence » s’est appliqué à ce nouveau médium. Par « effet-diligence », la médiologie entend qu’une nouvelle invention « commence par mimer » l’ancienne : les premiers wagons de chemin de fer étaient des diligences posées sur des rails ; les premières photos représentaient ce que représentaient les tableaux académiques d’alors – nus et paysages –, les premiers films étaient des pièces de théâtre filmées, etc. Les premiers phonogrammes reproduisent le concert. Dans le cas du jazz, musiques qui ne sont pas notées sous forme d’écriture graphique, cet effet s’ajoute à la constitution d’un « savoir musical »28 qui n’aurait pas existé sans l’enregistrement. Bernard Stiegler cite le cas de Parker qui s’imprègne des phonogrammes de Lester Young. La transmission s’opère à travers l’écriture que l’on pourrait qualifier, avec Bernard Stiegler, de « phonogrammatique ». En retour, « Parker écrit en jouant »29. Se constitue alors un véritable écosystème de ce nouveau paradigme technologique.

« Aux détours d’autres chemins, j’en suis aujourd’hui venu à penser que si le jazz peut être considéré comme une musique populaire et néanmoins savante (et qui, par phonogrammes interposés, a contaminé la planète de la plus diverse manière, après avoir été lui-même le fruit d’une contamination de la musique noire par la musique occidentale et par le même biais), c’est d’abord parce qu’il a su habiter une technologie électronique et analogique d’enregistrement – c'est-à-dire d’écriture – à partir d’une tradition orale de chant provenant d’un peuple arraché à sa terre, abstrait, si l’on peut dire, de ses déterminants ethniques, littéralement déterritorialisé. Et c’est dans un énorme court-circuit que la musique noire a rencontré et envahi une technologie ultra-moderne d’écriture non littérale et de mémorisation. Les oreilles du jazz sont électroniques. »30

Cette attitude n’est pas sans rapport avec le cas de l’interprétation du répertoire baroque, autre répertoire associé à la notion d’interprétation.

François Delalande montre comment le disque crée une nouvelle génération d’interprètes baroques. Il va même jusqu’à affirmer que les différentes étapes de la renaissance du « son baroque » sont directement indexées sur les inventions techniques liées à l’enregistrement31 : Landowska naît l’année de l’invention de l’enregistrement (1877) ; l’ensemble Concentus Musicus (1953) est créé dans le sillage du brevet et de la diffusion du microsillon (1948-1952) ; l’ensemble Il Giardino Armonico (1985) surgit sur les bases de la technologie numérique du disque compact (1981-1983). Dans ce dernier cas, il semble évident que l’interprétation des Quatre saisons de Vivaldi par l’ensemble de musique baroque Il Giardino Armonico en 199432, est plus qu’une énième interprétation. Lorsque les conditions du concert ne permettent pas de faire émerger une mandoline ou un clavecin d’un continuo, le recours aux artifices des micros puis de la fixation devient indispensable. Dans ce cas, la part de création due à l’enregistrement est manifeste dans la fabrication d’un objet-disque : techniciens, preneurs de son, et musiciens travaillent ensemble pour créer un « son » spécifique par le choix d’une prise de son (la place des micros, le choix des exagérations de sforzando…). À cela s’ajoutent les techniques de montage et de mixage, techniques éprouvées ailleurs (par les musiques électroacoustiques). Enfin, comme pour confirmer cette approche, les musiciens de cet ensemble revendiquent l’héritage du disque comme moyen de transmission d’un répertoire (au même titre sans doute que les musiciens de jazz33) : « Une étape importante est franchie en 1976 lorsque Nicolaus Harnoncourt publie le disque des concertos de l’opus 8, […] les Saisons d’Harnoncourt ». L’auteur parle bien du « disque » comme médium de transmission et de savoir. Par ailleurs, ce n’est plus Il Quattro Stagione de Vivaldi mais bien « les Saisons d’Harnoncourt »34.

Cette situation acousmatique offre également un avantage pour l’auditeur selon Glenn Gould (bien qu’il n’utilise pas le terme acousmatique). Elle permet de former l’auditeur, de le rendre plus exigeant en raison de la présence ou de la « proximité presque tactile du son »35. En supprimant les effets acoustiques de reproduction des salles, l’auditeur entretient un rapport plus intime avec la musique. La prise de son favorise le travail d’analyse et d’observation des détails (Gould cite essentiellement le cas des prises de sons nord-américaines et européennes). Par « effet-retour », l’interprète en concert est alors tenu de livrer une interprétation irréprochable et fidèle à l’interprétation qu’il donne lui-même dans son propre enregistrement sur disque, à défaut de quoi son public sera déçu. Ainsi le concert, lieu par excellence de la graphosphère, se dégrade en « produit dérivé » du disque.

À l’inverse, en 1937, près de cinquante années plus tôt, Béla Bartók s’inquiète des conséquences possibles de la fixation de l’interprétation d’une œuvre par le compositeur lui-même. « Avec le temps, l’œuvre serait enveloppée d’ennui. Car on peut imaginer qu’en une autre occasion le compositeur lui-même ait interprété des œuvres de manière plus belle, ou peut-être moins belle, mais en tout cas différente. »36

Mais pour Glenn Gould, l’enregistrement offre d’autres avantages que celui propre à la situation acousmatique. L’enregistrement, au-delà de sa simple fonction de reproduction de l’interprétation (sorte de mémoire mécanisée) lors d’un concert, devient un supplément d’interprétation37 grâce aux techniques mêmes de studio (prise de sons, montage, mixage…). Gould cite l’exemple des techniques de prise de sons par le choix des placements des microphones permettant de mieux faire entendre des effets d’orchestration dans Wagner38. Concernant la technique du montage, Gould39 donne l’exemple de la Fugue en la mineurdu Clavier bien tempéré40. Dans le chapitre « Vive la collure », il fait ainsi l’apologie du montage comme aide à l’analyse et donc prélude à une interprétation fixée sur support. La fugue en la mineur jugée délicate, fugue à quatre voix dans un registre médium, permet difficilement de faire entendre les richesses contrapuntiques. Parmi les huit différentes prises de cette fugue (qui ont subi ou non des raccords), Glenn Gould sélectionne, dans un premier temps, les prises 6 (version plutôt legato) et 8 (version plutôt staccato). Ces deux prises sont précisément sans coupure. On pourrait en conclure que le montage est inefficace. Or, à la réécoute, Gould les juge finalement insatisfaisantes car monotones. Il constate par ailleurs que les prises 6 et 8 sont enregistrées dans un tempo identique. Il décide alors de monter ces deux prises de façon à jouer l’exposition legato (prise 6), la partie centrale staccato (prise 8) et enfin la réexposition legato (prise 6). L’enregistrement et le montage ne sont plus seulement une mémoire, mais participent à construire l’interprétation idéale que se fixe l’interprète41.

« Pour ce montage, on aboutissait à une lecture de cette fugue infiniment supérieure à tout ce qui aurait pu être réalisé en studio au moment de l’enregistrement. Bien entendu, rien n’interdit en principe d’aboutir à une telle variété d’articulation en procédant à partir d’une conception préétablie. Mais sa nécessité a peu de chance d’apparaître dans le feu d’une séance d’enregistrement, et encore moins au moment du concert. Tandis qu’une calme réflexion post-opératoire permet très souvent de transcender les limites que le fait de jouer impose à l’imagination. »42

L’interprétation des enregistrements : un pseudo-paradoxe

Pour Gould, ce travail d’analyse assistée par les techniques de montage et de mixage devrait être également à la portée de l’auditeur. Il suffirait de fournir à l’auditeur les moyens de construire sa propre interprétation grâce aux techniques de montage, de mixage voire de diffusion, c’est-à-dire, encore une fois, les techniques déjà éprouvées dans le travail de création des musiques électroacoustiques.

 « Aussi limité soit-il, la manipulation des cadrans et des boutons est un acte interprétatif. Il y a quarante ans, tout ce que l’auditeur pouvait faire consistait à mettre en marche ou à éteindre son tourne-disque – et éventuellement, s’il était très perfectionné, à en ajuster un tout petit peu le volume. Aujourd’hui, la diversité des contrôles qui sont à sa disposition nécessite de sa part une capacité de jugement analytique. Encore ces contrôles ne sont-ils que des dispositifs de réglage très primitifs en comparaison des possibilités de participation qui seront offertes à l’auditeur lorsque les actuelles techniques très sophistiquées de laboratoire seront intégrées aux appareils domestiques. »

« Il serait par exemple relativement simple de mettre à la disposition de l’auditeur des options de montage qu’il pourrait exercer à discrétion. Un pas décisif dans cette direction pourrait être opéré à l’aide du procédé suivant : il existe aujourd’hui une machine qui permet de dissocier vitesse et hauteur de son. On ne sait toujours pas le faire sans une légère détérioration de la qualité sonore. Il n’en reste pas moins qu’avec cette machine, il est possible de mettre bout à bout des segments d’interprétations d’une même œuvre réalisées par plusieurs artistes et enregistrées à des tempos différents. Imaginons par exemple que quelqu’un aime dans la version de Bruno Walter de la Cinquième Symphonie de Beethoven son interprétation de l’exposition et de la récapitulation du premier mouvement, mais qu’il préfère celle de Klemperer pour le développement, laquelle utilise un tempo notablement divergent (il se trouve que j’aime les deux versions d’un bout à l’autre dans leur intégralité, mais c’est une question de goût). La question de la corrélation hauteur de son-vitesse ne se posant plus, il devient possible de tailler dans la version de Klemperer les quelques mesures voulues pour les insérer dans celle de Bruno Walter, sans qu’il se produise ni altération de tempo, ni fluctuation de la hauteur du son. On pourrait en théorie appliquer sans restriction ce procédé pour reconstruire une interprétation. Rien n’empêche le connaisseur qui voudrait s’y dédier de devenir son propre monteur et d’exercer de ce fait les actes interprétatifs vers lesquels l’entraîne son tempérament pour recréer une version idéale qui soit la sienne. »43

Si Glenn Gould défend, non sans risque, la démarche d’interpréter les interprétations enregistrées du « répertoire », on peut s’interroger légitimement sur ce choix quand il porte sur une musique électroacoustique et/ou acousmatique qui postule précisément l’absence d’intermédiaire entre l’œuvre et son public. On peut trouver paradoxal de vouloir interpréter des œuvres qui revendiquent le support électronique comme le support fidèle par excellence. Les supports magnétiques puis numériques apparaissent ainsi non interprétables, dans le sens où interpréter est offrir un ensemble de choix possibles, c’est-à-dire s’écarter de la référence afin de mieux éclairer l’œuvre. On pourrait estimer qu’il n’y a pas d’interprétation possible de la musique électroacoustique (voire de tout enregistrement disponible dans le commerce), puisque l’enregistrement par essence refuse tout écart avec son original. C’est oublier qu’avec la musique électroacoustique, le support n’est pas seulement le médium de diffusion mais le médium d’écriture et d’inscription, contrairement à l’ensemble des enregistrements phonographiques (à l’exception partielle de ceux cités plus haut comme le jazz44). Dit autrement, interpréter l’œuvre électroacoustique, c’est proposer une interprétation via sa projection spatiale, notamment parce que l’espace « n’est pas le milieu (réel ou logique) dans lequel se disposent les choses, mais le moyen par lequel la position des choses devient possible »45. Ainsi s’explique l’intérêt de l’interprétation des musiques des sons fixés. En effet, la dimension spatiale ne peut pas toujours être inscrite totalement sur le support. Rappelons que la version CD d’une œuvre électroacoustique est une réduction deux pistes d’une pièce souvent écrite en multipistes (à l’exception notable de certaines œuvres d’Henry). D’où la nécessité, en vidéosphère, de procéder à des interprétations en situation traditionnelle de concert (via des « orchestres de haut-parleurs du type « acousmonium »), situation héritée de la graphosphère. On remarquera, de nouveau, une possible contradiction médiologique : l’œuvre électroacoustique suggère un dispositif de circulation de type réseau mais trouve sa meilleure traduction dans la situation de concert. De fait, à l’origine des musiques fixées sur support, Schaeffer comme Stockhausen prônent la radio et le disque comme vecteurs de diffusion des œuvres concrètes et électroniques46. Ils dénoncent (déjà !) le faible engouement des éditeurs phonographiques et des radios pour la diffusion de ce répertoire47. Ainsi, la situation de concert électroacoustique est une situation paradoxale, où se chevauchent un cadre institutionnel issu de la graphosphère et un mode d’écriture issu de la vidéosphère. Par exemple, le théâtre à l’italienne, avec sa diffusion frontale, ne peut plus suffire à la projection spatiale des œuvres électroacoustiques, d’où les configurations spatiales inventées par Boulez ou Stockhausen dès les années 50 pour la diffusion notamment des œuvres mixtes. Dans ce cadre atypique du concert acousmatique, la notion d’interprétation chère à la graphosphère retrouve ici un véritable sens (analyse préparatoire à la projection, choix de stratégies individuelles de la part de l’interprète, etc.) pour la « mise en scène » d’une musique pourtant issue et conçue selon les attributs de la vidéosphère.

Pour une interprétation des musiques électroacoustiques et acousmatiques

La transcription et l’analyse

Quelle stratégie adopter comme préalable à l’interprétation des musiques des sons fixés ? Mémoriser l’œuvre à interpréter ou s’aider d’un support visuel ? Si certains interprètes peuvent jouer les œuvres du répertoire qu’ils ont mémorisées, la situation la plus courante (jouer une création, rejouer un répertoire récent) ne permet pas ce travail de mémorisation pour un interprète autre que le compositeur lui-même. À l’évidence, et en l’absence de trace écrite fiable – les esquisses, schémas et autres relevés des compositeurs, lors de l’élaboration de la pièce, ne suffisent pas pour le travail de spatialisation – une transcription est nécessaire. Il s’agit alors de transformer le son en trace visuelle. La « partition d’écoute » permet alors une forme de retour au « travail à la table »48, comme un retour à la technologie primitive du dispositif de Thomas Young, du Phonautographe de Leon Scott de Martinville, du Paléophone de Charles Cros ou du Phonographe d’Edison : parler devant une membrane qui transmet la vibration à un stylet qui, lui-même, écrit sur un cylindre de cire. Le son devient mouvement.

La transcription constitue en elle-même une interprétation. En effet, le travail de transcription impose le travail d’analyse de l’œuvre, et ce, en interaction. Or l’analyse est toujours empreinte de subjectivité. Bien que s’appuyant sur des techniques et des règles communes, garantes d’objectivité, elle n’empêche pas en effet des choix : dégager par exemples les grandes saillances, les principaux axes formels, etc.49, autant de critères qui influenceront l’interprétation (lors de la projection spatiale).

La transcription constitue ainsi la première étape de l’interprétation de l’œuvre, dont la projection spatiale est la phase d’aboutissement. Il convient donc d’étudier la question de l’espace, dimension première du travail de l’interprète des musiques électroacoustiques (ainsi que de la composition, qu’elle soit électroacoustique ou instrumentale au XXe siècle)50.

La projection sonore

L’espace externe et l’espace interne51

L’œuvre électroacoustique ou acousmatique contient intrinsèquement une part importante de ce qui était dévolu à l’interprétation dans la graphosphère : l’espace interne. En effet, dans l’écriture électroacoustique, la spatialisation intervient dans les différentes phases d’élaboration (captation du son et/ou synthèse sonore, traitement du son – découpage, transposition, interpolations, montage –, etc.), notamment celle du mixage. Cet espace est « interne » parce qu’il est enfermé dans le support « qui fait indissolublement partie de [l’œuvre] »52. Il est à noter que le mot « espace » est pris ici au sens concret, celui du positionnement des sons dans les trois dimensions d’un lieu donné (lieu que l’on évitera d’appeler « espace » pour éviter toute confusion). Mais plus encore que leur simple positionnement dans l’espace, c’est également la question de leur déplacement, de leur mouvement, bref de l’ « orchestration » de l’espace, qui doit être soulevée. À une dimension simplement statique s’ajoute une dimension dynamique. Ainsi, les effets de réverbération (échos, résonances), de profondeur, de présence, ou de déplacement (effet panoramique, mouvements latéraux) montrent combien l’écriture électroacoustique relève d’une écriture cinétique voisine de l’écriture cinémato­graphique. Toutes ces opérations s’inscrivent sur le support. Les œuvres les plus intéressantes de ce point de vue sont sans doute les premières œuvres électroniques et électroacoustiques, comme Kontakte ou Gesang der Jünglige de Stockhausen où les effets d’espace sont fixés. Ainsi, plus la projection est neutre (comme ce fut le cas pour Gesang der Jünglige, pour des raisons d’insuffisance technique), plus les compositeurs inventent les moyens d’intégrer l’espace dans l’œuvre. En survalorisant l’espace interne, le compositeur limite les marges de l’interprétation (via l’espace externe). Dans ces cas de figure (comme dans les œuvres octophoniques par exemple), la meilleure interprétation serait celle qui reproduirait la configuration existante au moment du montage et du mixage de l’œuvre (en studio). Or, cette reproduction est quasi impossible car on ne retrouve jamais la configuration du studio. L’interprétation via l’espace externe est alors encore nécessaire. Inversement, le recours à l’interprétation « pluridimensionnelle » de l’espace n’est-il pas, comme le suggère Patrick Ascione53, l’aveu d’un manque d’exploration et de fixation de l’espace interne au moment de la composition ?

Observons la logique inverse. La synthèse directe en temps différé a certainement permis la modélisation acoustique de l’espace la plus fine. Grâce aux modèles acoustiques, John Chowning a ainsi réussi à simuler l’espace par le calcul. Il crée alors des illusions d’espace en faisant appel, pour la diffusion, uniquement à quatre haut-parleurs fixes, rendant nul et non avenu tout travail de mise en espace externe de l’œuvre. À ce titre, et indépendamment de l’apport essentiel de la technique de la modulation de fréquence numérique, Turenas54 est la première pièce qui réalise la simulation du déplacement dans l'espace à 360° : directionnalité de la source sonore (contrôle des déplacements latéraux), illusion de déplacement devant/derrière (contrôle du rapport entre le son réverbérant et le son direct), effet Doppler (suggestion de la vitesse). L’espace est alors une résultante, la machine calculant ce qui constitue une projection mentale. On peut ainsi définir un espace acoustique minimal avec (en théorie) quatre points, qui suffisent à donner l’illusion d’un « espace naturel » (Turenas est l’anagramme de « Natures » mais aussi de « Saturne »), à condition d’être placé au centre de ces quatre points de diffusion. C’est ici la limite de cette configuration. La place centrale est précisément la position de l’interprète. Dans cet exemple extrême, l’interprétation devra être la plus neutre possible puisque tout est fixé (calculé par l’ordinateur et fixé sur un support), avec des HP de couleurs voisines, pour éviter des effets de timbre non voulus), c'est-à-dire une interprétation quasi inexistante.

Qu’interprète-t-on, lors des concerts, dans le cas des œuvres avec espace externe ? Au moment de la projection spatiale, il est toujours possible de mettre en relief certaines voix (que ce soit pour des œuvres stéréo ou multipistes), de faire émerger des saillances, bref de révéler les choix interprétatifs décidés lors de l’analyse. Mais c’est dans la relation entre espace interne et espace externe que le travail de spatialisation prend tout son sens, en retrouvant ainsi les propriétés spécifiques de la chaîne de transmission de la graphosphère.

« L’expérience prouve que dans le meilleur des cas, ces effets [d’espace externe] supplémentaires sont propres à déplier et à magnifier l’espace interne de l’œuvre – laquelle contient souvent implicitement en elle, de manière latente, toutes les nuances, toutes les dimensions révélées en vraie grandeur par l’orchestre de haut-parleurs, de même qu’une œuvre instrumentale classique contient sous une forme latente ses différentes exécutions. Ils peuvent aussi bien sûr abîmer au contraire cet espace, le noyer ou le brouiller, ce qui est le risque de toute interprétation. Entre espace interne de l’œuvre concrète (enfermé sur l’enregistrement-étalon de l’œuvre, sur son original, comme l'œuvre écrite l’est sur sa partition) et son espace externe, nous retrouvons donc la dualité partition/exécution de la musique instrumentale classique. »55

Il devient alors essentiel de concevoir des systèmes de projection au potentiel suffisamment large pour permettre de révéler ces « formes latentes » correspondant aux exécutions possibles.

Les systèmes de projection56

Les systèmes de projection visent à offrir une multitude de sources sonores, susceptibles de procurer à l’auditeur un « confort » et une expérience d’écoute supérieurs à la configuration stéréo la plus courante. Cette question du nombre de voix reste cependant problématique. S’il existe un « effet-cliquet »57 dans le domaine des innovations techniques sur le multipiste (la diffusion stéréo chasse la diffusion mono, la diffusion octophonique rend obsolète la diffusion stéréo, la myriaphonie rend caduque la quadriphonie), on peut se demander si une diffusion multiple est, pour le compositeur comme pour l’auditeur, « plus naturelle » à l’oreille et de meilleure qualité esthétique qu’une diffusion mono ou stéréo. La volonté de créer une multitude de sources sonores répond au désir de s’approcher de la réalité acoustique : notre environnement sonore est constitué de sources plurielles issues des sons directs comme des sons indirects (réverbérations…). Mais il s’agit, en l’occurrence, d’un modèle naturel, voire naturaliste. En matière d’art (et singulièrement en musique), qu’est-ce qu’une diffusion « naturelle », autrement dit conforme à une perception naturelle ? Placer l’auditeur dans des conditions s’approchant des conditions de perception dites « naturelles » est-il une obligation, une loi de l’interprétation des musiques électroacoustiques ? Par ailleurs, comme nous l’avons vu avec l’exemple de Turenas de Chowning (mais aussi chez Roger Reynolds et certaines pièces de Jean-Claude Risset), quatre voix suffisent à simuler tout déplacement d’un son dans l’espace tri-dimensionnel. Enfin, le mode de propagation des sons (plutôt directionnel) par les haut-parleurs ne ressemble en rien à la réalité acoustique d’un son rayonnant dans plusieurs directions.

L’enjeu est donc plus poïétique qu’esthésique. La mise en place du système de projection impose des choix techniques qui suggèrent et conditionnent l’interprétation à venir. Chaque système contient sa propre philosophie de l’espace. Nous avons discuté ailleurs de cette « nouvelle philosophie de l’espace »58 qui sous-tend les recherches dans la création d’une nouvelle lutherie de projection (des systèmes frontaux aux dispositifs entourant le public en passant par des configurations plus « éclatées » – type « installations sonores »). La responsabilité du compositeur, encore et toujours, porte sur ce qu’il fixe sur le support, notamment en terme d’espace interne. Deux grandes « écoles » s’affrontent : les tenants d’une œuvre stéréo (ou 4 pistes) qui se développera dans une projection éclatée ; les adeptes des compositions multipistes (de 8 à 16, parfois 32) dont la projection sera plus neutre, voire totalement fixée. La marge de l’interprète dépend de ce présupposé. Si le système choisi par le compositeur-interprète59 doit s’adapter à l’œuvre et à l’environnement acoustique, l’interprète conserve néanmoins un rôle essentiel, en temps-réel (dans le premier cas) ou en temps différé (dans le second). Il doit tenir compte des phénomènes spécifiques de l’audition (la psychoacoustique), avec en premier lieu celui du grossissement occasionné, dans les deux cas, lors du passage des deux haut-parleurs (ou 4 ou 8 haut-parleurs aux caractéristiques techniques adaptées, situations les plus courantes lors de la composition en studio) à la myriaphonie (situation la plus courante lors des concerts, à l’exception des cas du type Turenas de Chowning). L’œuvre travaillée en studio n’est pas la même que celle projetée dans la salle : indépendamment des choix de l’interprète, la situation d’écoute lors de la création ne pourra jamais être reproduite. Il faut donc s’adapter, tenir compte des échelles d’amplitude (entendre les masses sonores), savoir jouer des timbres par les jeux de filtrage (via la connaissance des spécificités de chacune des enceintes du système à partir duquel projette l’interprète), veiller à maîtriser la registration (moment-clé selon Dubedout60), surveiller et contrôler les effets de masque, ne pas négliger les approximations de notre perception (comment l’oreille restitue des phénomènes sonores « non naturels »), ni les caractéristiques acoustiques spécifiques de la salle pour la pose des haut-parleurs, comme lors de la projection, réagir ponctuellement lors du concert à des phénomènes extérieurs (réaction du public, etc.) et enfin – et surtout – s’engager dans le choix des trajectoires et mouvements spatiaux. Si la « démarche empirique » et « intuitive »61 est déterminante, il n’en reste pas moins vrai que de véritables compétences techniques et musicales s’imposent, et font des interprètes de la musique électroacoustique et acousmatique des musiciens à part entière (à l’image d’un Jonathan Prager ou d’une Agnès Poisson) pour lesquels des formations (comme les cours d’interprétation acousmatique organisés par Denis Dufour à Crest en France en août 2002, les stages de Musiques et Recherches à Ohain en Belgique en septembre 2002 dirigés par Annette Vande Gorne pour ne citer qu’eux) ou des concours (Futura 96 à Crest, Le Concours International d’interprétation spatialisée au sein du Festival Acousmatique International « L’Espace du Son » en 2000 et 2002, etc.) deviennent nécessaires.

Une console de mixage est-elle un « instrument » suffisamment souple pour développer chez l’interprète toutes ces qualités ? L’interprète peut-il tout contrôler à partir de ses dix doigts ? Faut-il alors partiellement ou totalement automatiser les réglages et les trajectoires spatiales des différentes pistes ? Sans entrer dans l’éternel débat de la relation homme-machine (l’instrument classique est déjà une technologie de pointe que l’interprète se doit de dompter), c’est le pragmatisme qui s’impose. Lorsqu’en 1988, Mortuos plango, vivos voco… de Jonathan Harvey est diffusée en plein air dans la carrière Boulbon, le choix d’un système de spatialisation automatisé, à savoir à l’époque la Matrix 32 de l’IRCAM, répondait à la fois aux exigences de la diffusion et aux contraintes d’écriture du compositeur (bande 8 pistes, écriture « instrumentale », brassage spatial…). Ce choix devenait par ailleurs impératif dans l’environnement très spécifique de ce concert : public en cercle, 16 haut-parleurs (deux fois huit) disposés en deux cercles concentriques, l'un en face des spectateurs, l'autre dans le dos (configuration imposée par Boulez pour la projection des parties électroniques temps-reél de Répons, jouée lors du même concert). Pour le compositeur, la maîtrise de l’espace, interne et externe (via la programmation des trajectoires des pistes sur les haut-parleurs) est totale. Le travail d’interprétation est quasi inexistant. Elle se limite au choix des qualités et propriétés ainsi qu’au placement des haut-parleurs, à l’équilibre des voix et à des modifications ponctuelles lors du concert pour réagir avec le public. Ainsi, si l’on perçoit l’avantage d’une spatialisation par un système de projections multiples d’une bande mono ou d’une œuvre deux ou quatre pistes (rendant l’interprétation essentielle), la spatialisation d’une bande 8 pistes pourrait contredire l’écriture spatiale voulue par le compositeur. Plus une œuvre fixe l’espace dans la composition, moins l’interprétation a de sens.

En parallèle, d’autres efforts portent sur la possibilité d’offrir à la fois des outils de programmation sur les consoles de diffusion (comme en témoignent les évolutions récentes du GMEBaphone, devenu le Cybernéphone, avec DIAO, Diffusion-Interprétation Assistée par Ordinateur permettant également une diffusion à distance62, exemple d’un système parmi tant d’autres dont l’Acousmonium de l’INA-Grm ou le Spatialisateur – logiciel conçu par Espaces Nouveaux – de l’IRCAM destiné à l’acoustique des salles), et des lieux de projections dédiés à cette musique – lieux rares à l’exception notable de l’Audium de San Francisco à partir de 1975. Pour les outils de programmation, la préparation de la projection est alors un travail d’interprétation hors temps-réel, que l’interprète « fixe » en enregistrant les commandes63. L’acte d’interprétation reste souverain, mais n’est plus effectué en « temps-réel ». Tombe alors une des trois dimensions proposées par George Steiner (citées en début d’article). On perd en spontanéité – ou en fausse spontanéité, dans la mesure où une interprétation est toujours le résultat d’un travail préalable, on gagne en efficacité et en lisibilité, si tant est que l’interprète dispose de temps et les organismes de diffusion, de moyens financiers pour mener à bien ce travail préalable64. Une telle solution, surtout appropriée dans les pièces multipistes, l’est également pour une diffusion à partir d’un support stéréo (le standard privilégié dans la mesure où il permet une complexité minimale en terme d’espace compatible avec le support commercial du disque compact).

Pour conclure

L’interprétation est un sujet médiologique par excellence. Le médiateur en graphosphère « n’est pas un simple point de passage et de raccordement entre un auditeur et un compositeur ; c’est à travers lui que l’œuvre prend forme »65. En vidéophère (à l’ère de la phono-fixation), on est tenté de constater (trop) rapidement que cet interprète est remplacé par la machine. Or, de nouvelles configurations se superposent aux anciennes. L’interprète de musique écrite – comme Gould – peut enrichir son jeu grâce aux techniques de studio. L’interprète se fait alors communicant : « Je suis un homme de communication qui joue du piano à ses moments perdus », nous dit Glenn Gould66. Il semble alors offrir à l’auditeur les moyens d’une appropriation plus fine de l’œuvre. Nous sommes bien en vidéosphère. L’auditeur peut ainsi devenir un interprète, aidé aujourd’hui, au XXIe siècle, par les nouvelles formes de représentation graphique du son (comme l’Acousmographe de l’INA-Grm ou AudioSculpt de l’IRCAM). Une écriture héritière de la graphosphère se trouve ainsi rehaussée par les médiums de la vidéosphère.

En musique électroacoustique, le changement radical de paradigme en vertu duquel le support de fixation devient un support de création laisse supposer l’abandon de l’interprète. Quand « la partition dit comment la musique doit être, l’enregistrement dit comment la musique est »67. Cette musique des sons fixés sur support, dont les médiums de diffusion privilégiés restent le support disque et la radio, se trouve paradoxalement mieux « révélée » par l’entremise d’un spécialiste de la projection sonore, nouvel interprète aux responsabilités sans doute réduites, mais néanmoins essentielles pour une perception entière des jeux d’espace qu’elle contient.

Enfin, abandonnons définitivement cette croyance selon laquelle la technique assurerait la conservation immémoriale des oeuvres. L’enregistrement est éphémère. Le support électronique améliore l’indicialité des traces mais n’assure pas sa pérennité, une des préoccupations majeures des compositeurs de musiques électroacoustiques.

Bibliographie

« L’interprétation des œuvres électroacoustiques. Table ronde proposée par Thélème Contemporain », Ars sonora n°4, novembre 1996 [Revue électronique – sur disquette – CDMC].

 « Pourquoi les médiologues ? », Les Cahiers de médiologie n°6, Paris, Gallimard, novembre 1998.

Ascione Patrick, « La polyphonie spatiale », L’Espace du son II, Lien, Dhomont Francis éd., Ohain, Musiques & Recherches, 1991, p. 66-72.

Bartók Béla, « La musique mécanique », Les Cahiers de l’IRCAM, recherche et musique n°7, 1995, p. 27-40.

Bayle François, « À propos du rôle de l’interprète dans la musique acousmatique », Ars sonora n°4, novembre 1996 [Revue électronique – sur disquette – CDMC].

Benjamin Walter, « L’œuvre d'art à l'ère de sa reproductibilité technique », Essais 2, Paris, Denoël, 1983, p. 87-126, trad. Maurice de Gandillac, retraduit dans « L’œuvre d’art à l’époque de sa reproductibilité technique », Œuvres III, Paris, Gallimard, 2000, première version, 1935, p. 67-113, dernière version de 1939, p. 269-316, trad. de Maurice de Gandillac, Rainer Rochlitz, Pierre Rusch.

Boeswillwald Pierre, « Le normatif et le factuel », Académie de Bourges, Actes III, Editions Mnémosyne, 1997.

Chion Michel, « Les deux espaces de la musique concrète », L’Espace du son I, Lien, Francis Dhomont éd., Ohain, Musiques & Recherches, 1988, p. 31-33.

Debray Régis, « Chemin faisant », Esprit n°85, Gallimard, mai-août 1995, p. 53-61.

Debray Régis, « Qu’est-ce que la médiologie ? », Le Monde diplomatique, août 1999.

Debray Régis, Introduction à la médiologie, Paris, Puf, 2000.

Debray Régis, Manifestes médiologiques, Paris, Gallimard, 1994.

Debray Régis, Vie et mort de l’image, Paris, Gallimard, 1992.

Debray Régis, Dieu, un itinéraire, Paris, Odile Jacob, 2001.

Decroupet Pascal, « Archeology of a Phenix. Electronic/Electroacoustic music : a category consigned to the past ? », Nuova Musica alla radio ; esperienze allo studio di Fonologia della RAI di Milano, 1954-1959, Milan, Rai/Eri, 2000, p. 12 et 14.

Delalande François, « La musique électroacoustique : coupure et continuité », Ars sonora n°4, novembre 1996 [Revue électronique – sur disquette – CDMC].

Delalande François, Le Son des musiques. Entre technologie et esthétique, Paris, Buchet/Chastel, 2001.

Dhomont Francis éd., L’Espace du son I, Lien, Ohain, Musiques & Recherches, 1988.

Dhomont Francis éd., L’Espace du son II, Lien, Ohain, Musiques & Recherches, 1991.

Donato François, « Le point de vue », Ars sonora n°4, novembre 1996 [Revue électronique – sur disquette – CDMC].

Dubedout Bertrand, « Funérailles et décibels (plaidoyer pour l’interprétation) », Ars sonora n°3, mars 1996 [Revue électronique – sur disquette – CDMC].

Gould Glenn, Entretiens avec Jonathan Cott, Paris, 10/19, 2001, p. 111-115, trad. française et préface de Jacques Drillon, 1° édition : The Pianist’s Progress, Rolling Stone Press, 1977.

Gould Glenn, Le dernier puritain (Ecrits I), Paris, Fayard, 1983. Textes réunis, traduits et présentés par Bruno Monsaingeon.

Merleau-Ponty Maurice, Phénoménologie de la perception, Paris, Gallimard, 1945.

Peignot Jérôme, « De la musique concrète à l'acousmatique », Esprit n°280, janvier 1960, p. 111-120.

Steiner George, Réelles présences, Paris, Gallimard, 1991.

Stiegler Bernard, « Programmes de l'improbable, courts-circuits de l'inouï », InHarmoniques n°1, Paris, Ch. Bourgois/IRCAM, 1986, p. 126-159.

Stockhausen Karlheinz, « Musique électronique, musique instrumentale », Contrechamps n°9, 1988, p. 66-77.

Vande Gorne Annette, « Naissance et évolution d’une nouvelle dimension du son », L’Espace du son I, Lien, Francis Dhomont éd., Ohain, Musiques & Recherches, 1988, p. 8-15.

Vers un art acousmatique, Lyon, GMVL, 1995.

Weissberg Jean-Louis, « Ralentir la communication. À propos de “L’art du moteur” de Paul Virilio », disponible via http://homestudio.thing.net/revue/content/virilio.htm).

Enregistrements

Bach Jean-Sébastien, Fugue en la m (vol. 1 du Clavier Bien Tempéré) BWV 865, par Glenn Gould (Piano), CD CBS M3K 42266, réenregistrée en 1975.

Chowning John, Turenas (1972), CD WERGO Digital Music Digital WER 2012-50

EvansBill, Conversations with myself (1963), CD Werve 521 409-2.

Harvey Jonathan, Mortuos plango, vivos voco… (1982), CD ERATO ECD 88261 ou CD WERGO Computer Music Currents vol.5 WER 2025-2.

Vivaldi Antonio, Le Quattro Stagione (1724) par Il Giardino Armonico (Giovanni Antonini, direction), CD TELDEC 4509-97208-2.

Notes

1 Régis Debray, Introduction à la médiologie, Paris, Puf, 2000, p. 121.

2 George Steiner, Réelles présences, Paris, Gallimard, 1991, p. 26-27.

3 Id., p. 40.

4 Régis Debray, Manifestes médiologiques, Paris, Gallimard, 1994, p. 32-33.

5 Quatrième de couverture des Cahiers de médiologie n°5, Paris, Gallimard, 1998.

6 François Delalande, Le Son des musiques. Entre technologie et esthétique, Paris, Buchet/Chastel, 2001, p. 42.

7 François Delalande, « La musique électroacoustique : coupure et continuité », Ars Sonora n°4, novembre 1996, p. 39. Cette référence à François Delalande dans ce contexte ne signifie pas que ce dernier s’inscrit dans le « cercle médiologique » initié par Régis Debray.

8 Comme le rappelle souvent Régis Debray, cette typologie dont « les tableaux en symétrie par colonnes et rubriques n’ont d’autre valeur que d’exposition », n’est ni limitative (elle pourrait être encadrée par la mnémosphère et l’hypersphère) ni chronologique (« C’est bien évidemment le jeu des jeux de transferts, reprises et renversements entre couches sédimentaires superposées, et non entre moments disjoints et juxtaposés, qui mérite l’attention. ») Cf. « Chemin faisant », Esprit n°85, Gallimard, mai-août 1995, p. 56.

9 Régis Debray, « Qu’est-ce que la médiologie ? », Le Monde diplomatique, août 1999, p. 32.

10 Régis Debray, Introduction à la médiologie, op. cit., p.50.

11 L’institution ecclésiastique, dans la tradition chrétienne, a su, par ailleurs, parfaitement utiliser les moyens et formes d’efficacité symbolique. Sur cette question, cf. Régis Debray , Dieu, un itinéraire, Paris, Odile Jacob, 2001.

12 François Delalande, « La musique électroacoustique ; coupure et continuité », op. cit., p.39.

13 François Delalande, Le son des musiques, op. cit., p. 33.

14 Pour la médiologie, l’efficacité symbolique d’un médium se fonde sur l’articulation entre la « logistique » (qui s’appuie sur des « vecteurs techniques », appelés également « Matière Organisée », comme le support physique, le mode d’expression, le dispositif de circulation) et le « stratégique » (qui s’appuie sur des « vecteurs institutionnels », appelés également « Organisation Matérialisée », comme le code linguistique, le cadre d’organisation, les matrices de formation). Pour plus de précisions, cf. Régis Debray, Introduction à la médiologie, op. cit., p. 124-137.

15 François Delalande, Le son des musiques, op. cit., p. 33.

16 François Delalande, Le son des musiques, op. cit., p. 44.

17 « L’enregistrement indiciel du monde démarre techniquement à la plaque photosensible (circa 1839), mais le processus technique (enregistrement du mouvement, puis du son, puis de la parole) culmine en une ère socialement normative avec le tandem vidéo-satellite et la généralisation du direct (circa 1968) ». Cf. Régis Debray, « Chemin faisant », op. cit., p. 56. Ceci dit, on peut légitimement se demander, avec Jean-Louis Weissberg (« Ralentir la communication. À propos de “L’art du moteur” de Paul Virilio », disponible via http://homestudio.thing.net/revue/content/virilio.htm [consulté le 22/08/2004]), si la vidéophère ne cumule pas « dans la même analyse, l’audio-visuel classique et la “vidéo-informatique”. Or, les logiques de ces deux univers sont essentiellement disjointes : culture de flux pour le premier […] et culture de l’exploration pour le deuxième […] ». En effet, la radio comme la télévision relèvent d’une culture du direct, de l’immédiateté alors que le réseau Internet rappelle partiellement la notion de durée, de permanence.

18 Il est intéressant de noter que la notion de progrès technologique est indissociable de la volonté de prolonger le corps. Les diverses inventions technologiques (c’est aussi vrai dans le champ musical), peuvent être comprises comme des prothèses corporelles : l’instrument de musique est le prolongement de l’homme, de même que le magnétophone a été dans un premier temps le prolongement de sa mémoire.

19 Cf. Walter Benjamin, « L’œuvre d’art à l’ère de sa reproductibilité technique », Essais 2, Paris, Gonthier, 1983, p. 87-126.

20 Bernard Stiegler, « Programmes de l'improbable, courts-circuits de l'inouï », InHarmoniques n°1, Paris, Ch. Bourgois/IRCAM, 1986, p.127.

21 Béla Bartók, « La musique mécanique », Les Cahiers de l’IRCAM, recherche et musique n°7, 1995, p. 37-40.

22 Toutes les citations à venir décrivant ces effets sont tirées de Régis Debray, « Pourquoi les médiologues ? », Les Cahiers de médiologie n°6, p. 271.

23 Soin poussé à l’extrême quand il choisit de jouer sur le Steinway CD 318 et qui produit un effet de hoquet dans le registre médium, hoquet parasitaire, pouvant donc être perçu comme un défaut.

24 L’expression « musique des sons fixés sur support » sous-entend « support électronique ». On peut en effet largement affirmer que toutes les musiques de la graphosphère et de la vidéosphère (voire de l’hypersphère) sont fixées sur support. Derrière cette expression se cachent le principe technique de la « phono-fixation » et le principe d’écriture de la « sono-fixation ».

25 Walter Benjamin, « L’œuvre d’art à l’ère de sa reproductibilité technique », op. cit., p.97.

26 Régis Debray, Vie et mort de l’image, Paris, Gallimard, 1992. p. 47.

27 Rappelons que la situation « acousmatique » est la situation dans laquelle l’auditeur ne peut pas visualiser la cause du son : l’écoute en casque ou à partir de haut-parleurs est une écoute acousmatique. L’immense majorité de nos situations contemporaines d’écoute sont acousmatiques. Cette écoute ne se généralise qu’à partir du moment où l’on est capable de mémoriser les sources sonores, c’est-à-dire avec l’invention du gramophone, même si le terme « acousmatique » proposé par Peignot en 1960 « pour en finir une bonne fois avec l’expression “musique concrète”, fait référence à Pythagore qui demandait (durant cinq années) à ses disciples de l’écouter caché derrière un rideau ». Cf. Jérôme Peignot, « De la musique concrète à l'acousmatique », Esprit n°280, janvier 1960, p. 116.

28 Bernard Stiegler, « Programmes de l'improbable, courts-circuits de l'inouï », op. cit., p.128.

29 Ibid

30 Id, p. 126

31 François Delalande, Le son des musiques, op. cit., p. 61.

32 Antonio Vivaldi, Le Quattro Stagione (1724) – extraits du Concerto en Mi M op. 8/1 RV 269 “La Primavera” (Largo, 2° mt) et du Concerto en Sol m op. 8/2 RV 315 “L’Estate” (Presto 3° mt), par Il Giardino Armonico (Giovanni Antonini, direction), CD TELDEC 4509-97208-2 – enregistrées le 01/09/1993 au studio 1 de la RTSI (Radio Della Svizzera Italiana).

33 Cf. pour cette question Bernard Stiegler, « Programmes de l'improbable, courts-circuits de l'inouï », op. cit.

34 Cité par François Delalande, Le son des musiques, op. cit., p. 60 61.

35 Glenn Gould, Le dernier puritain (Ecrits I), Paris, Fayard, 1983. Textes réunis, traduits et présentés par Bruno Monsaingeon.

36 Béla Bartók, « La musique mécanique », Les Cahiers de l’Ircam, recherche et musique n°7, 1995, p. 39-40.

37 Glenn Gould, Le dernier puritain, op. cit., p. 59.

38 Ibid.

39 Id., p. 67-72.

40 Bach Jean-Sébastien, Fugue en la m (vol. 1 du Clavier Bien Tempéré) BWV 865, par Glenn Gould (Piano), CD CBS M3K 42266, réenregistrée en 1975.

41 Glenn Gould a, semble-t-il, développé encore davantage cette technique dans l’enregistrement de la 5° sonate de Scriabine (enregistrement de 1977 – nous n’avons pas d’enregistrement et nous n’avons donc pas pu vérifier et confirmer ce travail exceptionnel), en mixant quatre prises différentes (chacune reposant sur un placement spécifique des microphones). À terme, le mixage avait pour fonction de souligner certains aspects de la partition de Scriabine, grâce aux couleurs propres à chacune des prises. Ce type de travail s’apparente totalement au travail de mixage des musiciens électroacousticiens. Cf. Glenn Gould, Entretiens avec Jonathan Cott, Paris, 10/19, 2001, p. 111-115, trad. française et préface de Jacques Drillon, 1° édition : The Pianist’s Progress, Rolling Stone Press, 1977.

42 Glenn Gould, « Vive la collule », op. cit., p. 71.

43 Cf. le paragraphe fondamental intitulé « L’enregistrement et ses perspectives », Gould Glenn, Le dernier puritain (Ecrits I), op. cit., p. 88-89.

44 Une étude fine serait sans doute nécessaire pour traiter des relations qu’entretiennent le jazz et l’enregistrement. La fonction de « savoir musical » est une des fonctions majeures de l’enregistrement pour le jazz. Mais il ne faut pas négliger la dimension créative induite par la technologie de l’enregistrement, d’une part en proposant des objets-disques qui deviennent des « sons » à part entière (comme François Delalande et Bernard Stiegler le démontrent) mais aussi en suscitant des créations autonomes. Nous en avons un exemple emblématique avec Conversations with myself de Bill Evans, enregistré en 1963. Il s’agit de la technique du re-recording (ré-enregistrement) puis du montage spatial gauche/centre/droit. Trois pianos (issus du même pianiste) sont ainsi superposés, et la dimension spatiale permet une plus grande lisibilité entre la rythmique (à gauche), le solo (à droite), l’improvisation-commentaire (à gauche). Dans le livret du disque, Bill Evans justifie sa position en affirmant que l’enregistrement peut constituer un véritable instrument qui permet notamment de maintenir une ambiguïté sur l’idée de l’interprétation en solo ou en groupe. Ce disque est réédité sur CD Werve 521 409-2, avec la reprise du texte original de Bill Evans.

45 Maurice Merleau-Ponty, Phénoménologie de la perception, Paris, Gallimard, 1945, p. 281.

46 L’une et l’autre sont cependant techniquement limités, en raison de la diffusion monophonique dans les années 50. Or, très tôt, les compositeurs de musiques électroacoustiques ont pu travailler en multipistes grâce aux technologies de studio, imposant ainsi une diffusion en concert via des systèmes de projection, comme en témoigne Stockhausen dans son article Karlheinz Stockhausen, « Aktuelles », Texte 2, Cologne, DuMont 1964, p. 56-57 ; version anglaise dans Die Reihe 1, electronic music, 1958, p. 51. Pour davantage de détails sur cette question, cf. Pascal Decroupet, « Archeology of a Phenix. Electronic/Electroacoustic music : a category consigned to the past ? », Nuova Musica alla radio ; esperienze allo studio di Fonologia della RAI di Milano, 1954-1959, Milan, Rai/Eri, 2000, p. 12 et 14.

47 Cf. Karlheinz Stockhausen pour un texte écrit en 1959, « Musique électronique, musique instrumentale », Contrechamps n°9, 1988, p. 73.

48 Bertrand Dubedout, « Funérailles et décibels (plaidoyer pour l’interprétation) », Ars sonora n°3, mars 1996.

49 Cf. article d’Annette Vande Gorne dans ce recueil d’articles : « L’espace comme paramètre musical », DEMéter, janvier 2003, p. 9-12

50 Sur cette question cruciale de l’espace, et notamment sur le point précis de l’articulation espace interne/espace externe dont nous parlons ci-dessous, voir les deux volumes : Francis Dhomont éd., L’espace du son, Lien I et II, Ohain, Editions Musiques & Recherches, 1988, 1991 [lire plus spécifiquement les pages 65-144 du 2ème volume].

51 Sur cette dichotomie « espace interne » et « espace externe » (dichotomie par ailleurs discutée par les compositeurs), cf. article de Michel Chion, « Les deux espaces de la musique concrète », L’Espace du son I, Lien, Francis Dhomont éd., Ohain,Musiques & Recherches, 1988, p. 31-33.

52 Michel Chion, Ibid, p.31.

53 « La polyphonie spatiale », L’Espace du son II, Lien, Dhomont Francis éd., Ohain,Musiques & Recherches, 1991, p. 66.

54 John Chowning, Turenas (1972), sons réalisés par ordinateur au CCRMA de Stanford (USA), CD WERGO Digital Music Digital WER 2012-50.

55 Michel Chion, « Les deux espaces de la musique concrète », L’Espace du son I, Lien, op. cit.,p. 32.

56 Pour un parcours historique des propositions de diffusion, cf. Annette Vande Gorne, « Naissance et évolution d’une nouvelle dimension du son », L’Espace du son I, Lien,p. 8-15. Pour les systèmes de projection, cf. L’Espace du son II, Lien, op. cit.

57 Rappelons qu’en médiologie, « l’effet-cliquet » désigne « l’irréversibilité du progrès technique ». Cet effet-cliquet n’est pas toujours assuré. Dans l’univers de la musique « techno », qui emprunte très largement aux présupposés esthétiques de la musique concrète (et à ses technologies), « l’effet-vélo » est en œuvre, dans la mesure où il y a « retour d’un système socio-technique qui semblait en déclin ». Pour ces définitions, cf. Régis Debray, « Pourquoi les médiologues ? », op. cit., p. 271.

58 Vincent Tiffon, « Espace et musique mixte », Ars sonora n°5, disponible via http://homestudio.thing.net/revue/content/asr5_03.html [consulté le 22/08/2004].

59 Compositeur-interprète ou interprète non compositeur, ou encore compositeur avec l’aide d’un interprète… Or, le compositeur n’est sans doute pas toujours le mieux placé pour interpréter ses propres œuvres, même si cette solution prévaut aujourd’hui (en l’absence d’un nombre suffisant d’interprètes reconnus et en raison, entre autres, du surcoût financier que cela occasionne). En réponse à une observation allant dans ce sens, le compositeur François Bayle rappelait avec justesse la « raideur » des propres interprétations de Stravinsky, tout en reconnaissant l’utilité de ces traces, « document irremplaçable pour comprendre les liens de sens qu’il établit et la vitesse d’écoute qu’il vise ». François Bayle, « À propos du rôle de l’interprète dans la musique acousmatique », op. cit., p. 69. Bertrand Dubedout défend une position plus radicale : il parle, pour les interprétations récentes, d’un « véritable dédoublement de la personnalité : en studio, l’Homo Sapiens et son cortège de raffinement, et devant son public le parfait butor, à de très rares exceptions près ». Il regrette enfin l’absence d’héritier des pionniers en la matière (tels Karlheinz Stockhausen, Pierre Henry ou François Bayle), alors que les soubassements théoriques et les qualités pratiques de leurs interprétations avaient été à l’origine de l’adhésion des générations suivantes. Cf. « Funérailles et décibels (plaidoyer pour l’interprétation) », op. cit..

60 Cf. la description détaillée et argumentée donnée par Bertrand Dubedout, op. cit.

61 François Donato, « Le point de vue », Ars sonora n°4, novembre 1996.

62 Pour une présentation en détail des concepts et finalités de ces systèmes, cf. http://www.imeb.asso.fr (dossier [IMEB]).

63 L’Acoustiglioo du GMVL – Groupe de Musiques Vivantes de Lyon – en était un premier exemple. Pour des détails sur l’Acoustiglioo, cf. Vers un art acousmatique, Lyon, GMVL, 1995.

64 Problème douloureux encore aujourd’hui : l’interprète de la musique acousmatique « ne peut pratiquer son instrument que dans de rares occasions » (cf. François Donato, op. cit.).

65 Régis Debray, Introduction à la médiologie, Paris, Puf, 2000, p. 121.

66 Glenn Gould, Le dernier puritain, Ecrits (tome 1), op. cit., p. 11.

67 Pierre Boeswillwald, « Le normatif et le factuel », Académie de Bourges, Actes III, Editions Mnémosyne, 1997.

Pour citer ce document

Vincent Tiffon, «L’interprétation des enregistrements et l’enregistrement des interprétations : approche médiologique», déméter [En ligne], Articles, Thématiques, Textes, L'interprétation, mis à jour le : 23/05/2014, URL : http://demeter.revue.univ-lille3.fr/lodel9/index.php?id=432.

Quelques mots à propos de :  Vincent Tiffon

Maître de conférences en musicologie à l’Université de Lille-3, directeur-adjoint du Centre d’Etude des Arts Contemporains. Directeur de la revue électronique DEMéter.