Manières de créer des sons
Sortir de l'aporie du concert acousmatique
par le jeu musical des arts de la sonofixation
Résumé
Comment expliquer le relatif échec des concerts acousmatiques, leur faible inscription dans le « vivre ensemble » musical ? N'y a-t-il pas une contradiction dans le terme même de « concert acousmatique » ? Quel rapport au temps entretiennent les compositeurs des « arts des sons fixés » ? Quelles solutions apporter pour une véritable diffusion de la musique acousmatique ? Comment réintroduire un vivre-ensemble dans l'expérience d'écoute des arts des sons fixés sur support ?
Plan
Texte intégral
Les degrés d'indétermination dans le concert
Le concert est ce dispositif de diffusion par lequel l'œuvre composée est actualisée par l'interprète. Le « jeu » de l'interprète se fonde tout à la fois sur la fidélité au texte musical et sa mise à distance. Cette mise à distance, cet écart peut se comprendre à la lumière de l'approche dichotomique deuleuzienne qui oppose le plan transcendant et le plan d'immanence. Par « plan transcendant », on entend un plan indépendant de l'exécution, c'est-à-dire un plan d’organisation disposant « d'une dimension supplémentaire et transcendante, d’un principe de composition plus ou moins caché, d’un dessein ou d’une Loi (humains ou divins) qui organisent et orientent l’évolution des formes et le développement des sujets »1. Le compositeur est créateur et seul responsable du plan écrit sous forme de partition musicale ; il impose l'exécution du plan transcendant en le déléguant aux interprètes. Ainsi, au moment du concert, l'oeuvre écrite comme plan transcendant est actualisée par le jeu de l'interprétation. La musique s'organise donc selon une dimension transcendante qui « vient à la réalité » lors de l'exécution au moment du concert : le plan d'immanence constitue cet instant où la musique est simultanément jouée et perçue. L'interprète est ce médiateur entre l'état idéal de l'oeuvre matérialisé par la partition et la musique en tant que réalité sonore – au sens d’une situation vécue. Ainsi, le plan transcendant de la partition possède une dimension supérieure à la réalité vécue, immanente.
L'interprète a donc vocation à actualiser le plan issu de l'esprit du compositeur. Mais l'importance de la dimension transcendante du plan peut être atténuée en donnant davantage de place à l'interprète par le biais de l'indétermination. Tel est l'écart ou le degré d'indétermination de l'œuvre et/ou de l'interprétation2. Au sein des créations de Karlheinz Stockhausen, Kreuzspiel (1951), oeuvre écrite en sérialisme intégral, constitue un exemple de détermination absolue. En revanche, le Klavierstück X (1961) introduit l'indétermination par des structures ou cellules librement organisées par l'interprète. Enfin, Aus den sieben Tagen (1968) se compose d'un ensemble de quinze textes qui ont pour vocation de plonger l'interprète dans une ambiance (Stimmung) propre àsolliciter son intuition et sa sympathie avec les autres interprètes. Le plan transcendant (partition) est réduit à sa plus simple expression : une proposition textuelle qui exprime néanmoins l'état d'esprit du compositeur et suggère l'ambiance du jeu. Cette oeuvre intuitive relève donc de l'indétermination forte : la musique s'autogénère sur le moment en un plan d'immanence. Les musiciens ne sont pas médiatisés par la partition, et la musique se crée en fonction des caractéristiques de chacun d'entre eux, de leurs interactions ainsi que de l'ambiance dans laquelle ils sont alors plongés3.
A l'autre extrême, dans l'art des sons fixés sur support4, le son lui-même se confond avec le plan transcendant. Le compositeur fixe la pensée créatrice sur le support électronique pour la transmettre via ce même support, à l'instar de la musique écrite. Mais, dans ce cas, il n'existe plus d'intervalle entre la musique telle qu'elle est composée et son actualisation (traditionnellement prise en charge par l'interprète) : l'actualisation des oeuvres fixées sur support est uniquement prise en charge par une diffusion via des haut-parleurs. Les musiciens représentant le courant acousmatique défendront cependant à ce niveau une interprétation « plastique », sous forme de spatialisation par plans suivant des couples de haut-parleurs. L'interprétation de la musique acousmatique n'est donc qu'une interprétation musicale réduite à sa seule dimension plastique, au sens où seul le paramètre spatial est contrôlable lors de l'interprétation (déroulement temporel de l'oeuvre figé par le support d'enregistrement, jeu sur les intensités via les potentiomètres). Précisons toutefois pour nuancer cette affirmation qu'une interprétation acousmatique sur des paires de haut-parleurs aux propriétés de restitution différentes5 génère également des subtilités timbrales non fixées sur le support par le compositeur. Pour autant, même si l'on observe une certaine volonté de réintroduire l'indétermination via l'interprétation – indétermination elle-même liée aux caractéristiques architecturales propres aux différents lieux de diffusion –, l'interprétation acousmatique se borne à une interprétation essentiellement plastique des oeuvres sans atteindre le degré d'indétermination des musiques écrites (qui actualisent dans un seul et même moment les dimensions sonore et temporelle des oeuvres fixées) et des musiques intuitives et improvisées (qui créent littéralement les dimensions sonore et temporelle).
[fig. 1 : Plan transcendant/plan d'immanence :
frise indicative (NB: graphique à vocation d'exposition, et non de vérité)]
Dans le cas de la musique acousmatique, cette stratégie de l'élaboration patiente de la composition contre l'immédiateté de l'interprétation provient, rappelons-le, d'une pensée plastique, celle de la matière sonore à sculpter patiemment, comme ce fut le cas de la musique concrète des origines. Le traitement sonore est donc une activité ancrée dans le temps différé. De ce point de vue, la musique électronique « savante », qu'elle soit analogique comme celle de Cologne ou numérique comme celle des Bell Laboratories dans le New-Jersey, n'est pas si éloignée de l'esthétique de la musique acousmatique : « composer le son lui-même » par la synthèse directe en temps différé relève d'une stratégie de contrôle et de maîtrise de tous les paramètres sonores. La contrainte technologique initiale que constitue le temps de calcul trop long des ordinateurs imposait d'user du temps différé pour une maîtrise fine des paramètres. Cette contrainte se mue en revendication esthétique.
Ainsi, dans les arts des sons fixés sur support, manque toujours le contrôle temporel, la dimension gestuelle, ou plus exactement une actualisation de la dimension gestuelle. En effet, si l’œuvre acousmatique n’est pas jouée au sens d'une oeuvre écrite actualisée (et donc jouée par des interprètes), elleest toutefois actualisée par le système de diffusion, sans être véritablement interprétée, malgré les nuances que nous avons apportées ci-dessus. Ainsi, l'actualisation des arts des sons fixés se résume bien souvent à une simple diffusion : disparaissent la part d’indétermination de l’interprétation, la liberté du jeu de l'interprète. Dans le jeu, l’interprète se charge de la dimension spécifiquement temporelle. Il l’incarne. Le temps vécu de l’interprète et le temps de l’œuvre se confondent. Plus l’œuvre est déterministe, plus la liberté qui est laissée à l’interprète dans son interprétation est limitée, et ainsi plus l’interprète doit se laisser guider par la temporalité de l’œuvre.
Ainsi, l'oeuvre acousmatique est-elle une oeuvre finie, définitive, qui s'oppose en ce sens aux oeuvres de processus, ces dernières étant davantage tournées vers la création immanente, même si l'oeuvre écrite est continuellement recréée à chaque exécution. Selon la pensée de Deleuze6, il manquerait à la musique acousmatique une « modulation » : « dans la modulation, il n'y a jamais arrêt pour démoulage, parce que la circulation du support d'énergie [le son pour notre sujet] équivaut à un démoulage permanent; un modulateur est un moule temporel continu... Mouler est moduler de manière définitive, moduler est mouler de manière continue et perpétuellement variable »7. Aussi, le contrôle du son en temps réel équivaut à un « moule temporel, variable et continu, auquel seul convient le nom de modulation à strictement parler »8. On l'aura compris, l'acousmatique s'occupe de mouler. Quelle musique ou quels dispositifs musicaux permettraient la modulation ?
Un déficit de transmission d'expériences entières
La place prépondérante occupée par les supports de fixation dans le processus de création des oeuvres (que ce soit la partition pour des oeuvres instrumentales ou un support électronique de fixation analogique ou numérique pour les oeuvres acousmatiques) induit une fétichisation de ces mêmes supports de fixation et de leurs usages. Les compositeurs se préoccupent principalement de transmettre leurs oeuvres selon la définition médiologique9, à savoir transporter l'oeuvre dans le temps, par le biais de vecteurs techniques et institutionnels appropriés, façonnés pour rendre cette transmission efficace.Le support de fixation du son et le dispositif du concert sont deux médiums (l'un de stockage, l'autre de diffusion) qui conditionnent l'efficacité de la transmission des oeuvres. Cependant, médiologiquement parlant, le support enregistré est un médium de l'audiosphère (né avec l'enregistrement, et centré sur la photo-sono-vidéofixation) alors que le dispositif de diffusion du concert est un médium de la graphosphère, né antérieurement. De fait, utiliser le concert comme dispositif de diffusion revient à adapter un dispositif ancien à une forme d'expression artistique nouvelle, à l'image des premiers wagons, simples diligences posées sur des rails. L'aporie du concert acousmatique vient notamment de ce décalage, cet « effet diligence » du concert acousmatique. A ce titre, l'efficacité du concert acousmatique devrait a priori être remise en question.
Reste que ce premier argument n'invalide pas l'exigence poïétique du musicien, qu'il écrive pour instruments acoustiques, ou qu'il travaille comme plasticien du son avec les technologies de synthèse et de traitement de celui-ci. Musique instrumentale écrite et musique acousmatique fixée sur support misent sur la réduction phénoménologique : l'intention du compositeur est entièrement dévouée au sonore. La composition focalise l'activité de l'esprit de celui qui écoute sur la dimension perceptive : l'esthésique. Ainsi, le travail poïétique visera une exigence de richesse, de densité, de complexité des combinaisons sonores toujours plus grande. On peut alors se demander si l'aporie de la diffusion de la musique acousmatique en concert ne vient pas plutôt d'un déficit de communication d'une expérience entière que de la situation paradoxale du concert acousmatique.
Qu'entendons-nous par expérience entière ? Dans notre problématique, nous pensons la musique comme une forme supérieure de symbolisation qui se traduit par une trace, un objet fini matérialisé par la partition et/ou un support d'enregistrement, mais aussi comme un moment vécu par notre perception, et au-delà de notre perception, par la globalité que nous formons. Notre corps est ce lieu de l'unité de la perception où convergent l'esprit, les émotions, les systèmes perceptifs, etc. La transmission de l'ensemble de ces deux moments, la trace et le moment vécu de notre perception, constitue ce que l'on pourrait appeler la « transmission d'une expérience entière »10. Dans la musique acousmatique, en choisissant de fixer11 le geste musical sur support analogique ou numérique, le temps n'est pas vécu en cela que l'auditeur n'est pas témoin du processus de montage. Ainsi, la fixation impose une pensée de temps spatialisé – concept avec celui de temps vécu que nous analyserons plus loin – puisque la dimension temporelle totale de l'œuvre est déléguée au support. Dans ce cas, l'expérience n'est pas entière en cela qu'elle ne donne pas accès à l'intégralité du processus musical, de la fabrication à la réception – indépendamment du fait que la réception est par nature lacunaire. Nous considérons alors qu'il existe un « déficit de transmission d'expériences entières » pour l'auditeur.
Quelques rares exemples font exception à cette règle, lorsque le compositeur se met en situation d'être lui-même interprète d'une expérience entière (qui peut être l’actualisation d’un plan transcendant), et de fixer cette expérience entière. Bernard Parmegiani procède ainsidans Géologie sonore extrait de son cycle d'oeuvres de natura sonorum... (1975-1978)12. Citons également Hymnen (1966-1967)13 de Karlheinz Stockhausen, véritable alternative à la musique concrète de Schaeffer. En usant délibérément des indices sonores que constituent notamment les références aux hymnes nationaux, le compositeur replace la transmission de « l'expérience entière » au coeur du processus de perception, même s'il s'agit encore ici d'une oeuvre fixée sur support, avec toutes les caractéristiques de la sonofixation. Pour ces deux exemples, le procédé est rendu possible par l'usage des technologies analogiques de l'époque, c'est-à-dire des outils de production pour lesquels d'une part l'oreille (du compositeur) n'est pas instrumentée par l'œil, et d'autre part dans lesquels les dispositifs mnémotechnologiques14 (comme par exemple les mémoires présentes sur les tables de mixage numériques – ou logiciels apparentés – que l'on appelle automations) sont absents : le compositeur concret travaille, tel un plasticien, directement sur la matière sonore, dans un processus d'aller et retour entre le faire et l'entendre. Aujourd'hui, la traçabilité du son via les outils numériques impose un temps spatialisé hypertrophié. Le son numérique est toujours le résultat d'un échantillonnage (cf. théorie de l'échantillon numérique) en fines tranches temporelles. A ce titre, l'ensemble des technologies issues du numérique est une extension de la technique de l'échantillonnage (séquenceurs qui discrétisent le temps et peuvent notamment intégrer le mixage numérique).
Résumons: pour la musique instrumentale, le choix radical de la fixation sur papier pour une pérennisation de l'oeuvre valorise la dimension transcendante au détriment de la dimension immanente. De la même façon, pour la musique acousmatique, la dimension immanente est marginale, non revendiquée voire mise à distance. Le compositeur ne nous donne pas à entendre le processus par lequel l'oeuvre existe : l'ensemble des étapes de la réalisation des sons, les choix de montage, les stratégies de mixage, etc. L'oeuvre est donnée comme étant définitive, ciselée et sans retouche possible, hormis la relative interprétation (réduite à la seule dimension plastique de l'espace) lors de la diffusion. Cette mise à distance est bien celle de la mise à distance de « l'expérience entière », même s'il existe une volonté réelle de symbolisation dans la musique acousmatique que François Bayle théorise par le concept d'i-son15. La musique ici se revendique comme un art de l'illusion, ce qui induit certes des effets de symbolisation, mais peut a contrario priver l'auditeur de l'expérience du jeu, et donc, par extension, du véritable vivre-ensemble. Selon nous, un des « vivre-ensemble » de la musique, indispensable à une appropriation de celle-ci parceux qui la jouent comme par ceux qui l'écoutent, peut résider dans la capacité de la musique à établir une relation entre les musiciens et le public16.
Pour comprendre le déficit de transmission d'expérience entière, il convient d'étudier très pragmatiquement les opérations nécessaires à la fixation sur support – dont la référence est le temps métrique – des sons patiemment élaborés jour après jourdans un temps éclaté.
Temps métrique, temps éclaté, temps vécu
Nous pensons que l'aporie du concert acousmatique provient de la distorsion entre d'un côté, le temps métrique du support couplé au temps éclaté de la création et, de l'autre, le temps vécu de la réception. Si actualiser une oeuvre par le jeu revient à l'émanciper du temps métrique du support, la musique électroacoustique, telle qu'elle existe aujourd'hui, ne peut avoir recours qu'à une interprétation limitée au seul domaine plastique (spatialisation, jeu timbral), nous l'avons démontré plus haut. De fait, dans la musique concrète, électronique, électroacoustique et acousmatique, l'agencement de deux sons dans le temps est déterminé par la métrique du support. En electronic-live, l'agencement de ces deux sons – même s'ils sont au préalable fixés sur des mémoires (sons échantillonnés) – est fonction du temps vécu de l'interprète. La différence est fondamentale. Précisons enfin qu'en art des sons fixés, technologie analogique et technologie numérique n'induisent pas nécessairement la même prédétermination du support. Par exemple, réaliser une incrustation17 avec les interfaces graphiques numériques revient à orienter visuellement le positionnement des objets sonores dans le temps du fait de la nature spatiale du support : on retrouve alors l'ancrage visuel de la création musicale assistée par ordinateur. En revanche, une incrustation analogique effectuée en exerçant une pression du doigt sur la bande qui défile sur la tête d'enregistrement produira, pour le compositeur qui se retrouve de facto placé en situation d'interprétation, une situation de temps vécu.
L'expression « temps éclaté » correspond aux allers et retours compositionnels entre les différentes étapes du processus de création électroacoustique : captation ou création des sons, transformation (filtrage, transposition, boucle, lecture inversée, effets temporels, etc.), montage et mixage (spatialisation, etc.). Chacune de ces étapes est une extraction temporelle, un décloisonnement du temps, d'où notre expression « temps éclaté ». La composition en temps éclaté est une des conséquences de la réversibilité du temps, réversibilité induite par la nature même du support enregistré. S'ensuit une division du geste musical, elle-même conséquence de l'intégration des mnémotechnologies aux outils de production sonore. La situation de composition valorisant traditionnellement le plan transcendant, le compositeur de musique acousmatique s'est placé en situation de « confort temporel », à l'instar des compositeurs de musique écrite ou de tout autre créateur de la graphosphère, peintre, dramaturge, écrivain... susceptible de revenir sur son oeuvre jusqu'à son achèvement. Cette situation de confort temporel s'explique aussi par les limitations technologiques de l'ère analogique : en effet, les opérations compositionnelles complexes n'étaient que très difficilement réalisables en temps réel à l'époque de la musique concrète. Ainsi, combinant les effets du temps métrique du support et les effets du temps éclaté de la création, le moment musical que transmet le support en musique acousmatique est dans la plupart des cas perçu comme n’ayant jamais existé ; comme « n’ayant pas été ». La musique acousmatique, c'est du « ça-est » qui n'a jamais été18. En ce sens, les musiques électroacoustiques nous proposent littéralement de nous faire entendre « l'inouï », au sens propre.
[Fig. 2 : les différents temps du processus de création électroacoustique]
Cette situation dévoile cependant le réel problème de la réception de la musique acousmatique, à savoir celui d’un déficit affectif comparé aux autres musiques fixées sur support. Car sans cette « double position conjointe de réalité et de passé », sans cette « émanation du réel passé », le support n’est plus porteur de sa « magie », cette magie qui « confond vérité et réalité dans une émotion unique [...] en posant une présence immédiate au monde (une co-présence) »19 d’ordre métaphysique. Dans ce cas, le support ne permet plus à l’auditeur de s’identifier au moment de l’expérience musicale, celle que nous appelons « expérience entière », de s’identifier à l’artiste interprétant son/une œuvre, et, au final, de s’approprier l’œuvre elle-même. Ces évolutions nous semblent fort préjudiciablesà l’établissement d’un possible « vivre ensemble » unissant les artistes et le public des musiques électroacoustiques.
La nouvelle mixité
En art des sons fixés sur support, l'on a fait le choix stratégique de renoncer àcette expérience entière et ainsi d’orienter le mode de création de la musique (eu égard à sa temporalité) vers le mode de création de la peinture ou de la sculpture. En somme, des arts plus « spatiaux » que temporels. Par l'interprétation à la table de mixage, les compositeurs de musique acousmatique tentent cependant de réintégrer le geste dans la diffusion, dans le cadre des « orchestres de haut-parleurs ». Mais l'interprétation est limitée au seul domaine plastique, comme nous ne cessons de le rappeler.
Amplifiée par l'intégration des mnémotechnologies aux outils de création musicale du numérique, la « situation de confort » du compositeur peut aujourd'hui être dépassée grâce à la possibilité d'effectuer des opérations complexes en temps réel. Couplée à des interfaces spécifiques, la situation de temps réel peut seule sortir la musique acousmatique de sa condition de « ça-n'a-pas-été ». Non sans engendrer de nouvelles pratiques, la situation d'interprétation musicale électroacoustique réunifiant interprétations temporelle et plastique s'établit sous le jour d'une nouvelle mixité musicale. Le compositeur/interprète crée effectivement sa musique en deux temps : le temps de la création (éclaté) et de l'apprentissage concret d'environnements sonores (patches), puis le temps de leur interprétation, que celle-ci soit diffusée directement en concert ou fixée sur support.
Dans le processus de création électroacoustique, l’existence de l’expérience entière peut se situer sur plusieurs niveaux : celui de la source sonore (corps sonore et micro, synthèse), de la transformation du son (transpositions fréquentielles et temporelles, inversions, filtrages…) ou du mixage (la spatialisation étant un mixage de l’espace ou d’écrans acousmatiques)20.
Concernant la transformation du son, les potentiomètres linéaires ou rotatifs prévus à cet effet sont de nos jours bien insuffisants pour procurer une dimension gestuelle musicale satisfaisante au contrôle des outils de transformation. Une solution à ce problème semble se trouver dans la réexploitation d’interfaces instrumentales presque oubliées comme les antennes du Theremin vox et le ruban du Mixtur Trautonium.
Au niveau du mixage, même si de nombreuses interfaces de spatialisation convaincantes ont vu le jour21, l’établissement d’un standard multipiste permettant le démixage/remixage de l’œuvre fixée semble être une condition nécessaire à une véritable interprétation (de mixage simple et/ou de spatialisation) dont les enjeux seraient à la fois sonores et temporels. Laissé à la volonté du compositeur, le contenu des pistes ouvrirait alors à l’interprétation un champ jusque là bloqué par les réductions stéréophoniques ou multipistes qui entraînent un degré de détermination plus ou moins grand dans l’interprétation. Une situation « d’interprétation forte » serait ainsi rendue possible par une configuration de démixage total.
Enfin, il serait essentiel de repenser l’ergonomie des dispositifs de contrôles interfaciel du son fixé en donnant le choix à son utilisateur de travailler suivant les esthétiques du temps spatialisé et du temps vécu (et de penser une possible gestualisation des opérations de montage) tout en restant en cohérence avec les impératifs que dicterait un instrument de composition de type acousmatique. Par exemple, l'écran d'ordinateur altère l'impératif esthétique des musiciens acousmaticiens : le son écouté à l'aveugle crée des images sonores à même de produire du symbolique (cf. l’i-son baylien). Dans cette visée, le couple magnétophone/bande analogique semble paradoxalement beaucoup plus pertinent que les outils actuels. L’heure est venue de les adapter et les dépasser dans une hybridation analogique/numérique22.
A ce stade, on peut alors imaginer ce que serait le concert de musique électroacoustique idéal, concert ou tout autre dispositif plus approprié susceptible de rendre compte de l'expérience entière. L'idée est de concilier l'exigence en termes de qualité morphologique des objets sonores par la création de sons en temps différé, et l'exigence de l'« ici et maintenant » du concert comme mise en commun du partage symbolique (autrement dit, le processus de symbolisation), exigence qui pourrait être favorisée par une interprétation musicale en temps réel possible grâce à des interfaces ergonomiques, adaptées aux musiciens. Il convient de perfectionner ou d'inventer des interfaces comme vecteurs de la dimension immanente du jeu, dimension totalement absente dans le concert acousmatique. Cette absence nuit à l'expérience entière, et de ce fait freine la constitution d'un « vivre ensemble » pour la musique électroacoustique ou acousmatique.
Conclusion
Du point de vue de la relation plan transcendant / plan d'immanence, nous considérons que la musique acousmatique depuis 1950 représente la première phase nécessaire d’un travail plus global. Selon Stockhausen, le travail du musicien, interprète ou compositeur, doit alterner musique écrite et musique intuitive. Ce feedback, selon ses termes, est un aller-retour sans fin entre le déterminé et l’indéterminé. Stockhausen le représente sous la forme d'une spirale – cercle repassant toujours par le même point mais avec un niveau de conscience supérieur. Cette alternance est nécessaire car la musique écrite permet de travailler des motifs, de fixer des concepts, de travailler la rigueur, d’expérimenter les sonorités, tandis que la musique intuitive permet d'exploiterla liberté de jeu, la réactivité, l’utilisation pertinente et libre des motifs précédemment appris. La musique acousmatique représenterait alors la première phase de ce feedback. La seconde phase consiste à faire vivre les découvertes théoriques et pratiques de la musique acousmatique dans le jeu.
Dans l'acousmatique, il n'existe (pas encore) de création dans l'exécution : on parle ainsi de diffusion d'un objet fini et non d'exécution d'un objet en devenir. Dans la « musique électroacoustique de processus » que nous appelons de nos voeux, la création se produitdans l'exécution. Le temps métrique n'est plus un impératif. Le temps éclaté est toujours présent dans la première phase du travail de composition (patch, preset, échantillonnage, etc.), mais dans une proportion moindrepuisqu'il ne constitue plus l'enjeu principal de la fixation, cette dernière étant remplacée par l'interprétation entendue comme actualisation de ce travail préparatoire. Le temps vécu de l'oeuvre réussit à synchroniser le compositeur et les auditeurs. L'expérience entière devient alors possible, le processus d'individuation psychique et collectif se remet en route, permettant un possible vivre ensemble autour de l'oeuvre musicale.
Une telle configuration abolitle clivage entre l'oeuvre finie et l'oeuvre-processus. Non pas par la victoire de l'une sur l'autre, mais par l'intégration des avantages respectifs de chacune sur l'autre. D’où l’absolue nécessité d’un travail du son préalable (différé) mais devenu contrôlable (via les patches) sur scène selon divers paramètres apparus pertinents à la suite de l’apprentissage concret du son. La démarche d’interprétation acousmatique fixait le temps sur la bande et « interprétait » le son grâce au dispositif « plastique » de la spatialisation. Cette « nouvelle mixité » va plus loin : l’interprétation allie contrôle sur le son et action sur le temps, retrouvant par là un enjeu pleinement musical.
L'interprétation musicale via des interfaces réintroduit la dimension corporelle dans le jeu. Les questions générales de cognition s'avèrent indispensables pour tenter de mieux comprendre le changement paradigmatique que constitue une « musique électroacoustique de processus ». Ajoutons que l'interaction entre les musiciens eux-mêmes, l'interaction entre les musiciens et le public, l'interaction à l'intérieur même du public – le public devenant actif et les musiciens devenant occasionnellement passifs – représentent un enjeu principal de cette nouvelle situation de création musicale et d'écoute de la musique.
[Fin de la rédaction en juin 2006]
Bibliographie
Barthes Roland, La Chambre claire. Notes sur la photographie, Paris, Cahiers du cinéma, Gallimard, Seuil, 1980.
Bayle François, Musique acousmatique ; propositions… …positions, Paris, INA & Buchet/Chastel, 1993.
Bergson Henri, Essai sur les données immédiates de la conscience, Paris, PUF Quadrige, 2007, 1ère éd., Paris, PUF, 1888.
Bergson Henri, Matière et mémoire, Essai sur la relation du corps à l'esprit, Paris, PUF Quadrige, 2004, 1ère éd., Paris, PUF, 1939.
Cott Jonathan, Conversation avec Stockhausen, Pris, Jean-Claude Lattès, 1979, trad. Jacques Drillon, 1° éd., 1974.
Debray Régis, Transmettre, Paris, Odile Jacob (coll. « Le champ médiologique »), 1997.
Debray Régis, Introduction à la médiologie, Paris, PUF, 2000.
Deleuze Gilles, Francis Bacon, Logique de la sensation, Seuil, Paris, 2002, 1ère éd., Paris, La Différence, 1981.
Deleuze et Guattari, Schizophrénie et capitalisme II, Mille plateaux, Paris, Minuit, 1980.
Nattiez Jean-Jacques, Mion Philippe, Thomas Jean-Christophe, L’envers d’une œuvre, de natura sonorum de Parmegiani, Paris, INA/GRM/Buchet-Chastel, 1982.
Stiegler Bernard, De la misère symbolique, 1. L’époque hyperindustrielle, Paris, Galilée, 2004.
Stiegler Bernard, De la misère symbolique, 2. La catastrophè du sensible, Paris, Galilée, 2005.
Stiegler Bernard, La Technique et le temps 3. Le temps du cinéma et la question du mal-être, Paris, Galilée, 2001.
Stiegler Bernard, Mécréance et discrédit, 1. La décadence des démocraties industrielles, Paris, Galilée, 2004.
Stiegler Bernard, Mécréance et discrédit, 2. Les sociétés incontrôlables d'individus désaffectés, Paris, Galilée, 2006.
Stiegler Bernard, Mécréance et discrédit, 3. L'esprit perdu du capitalisme, Paris, Galilée, 2006.
Notes
1 Manola Antonioli, « Vitesse », Le Vocabulaire de Gilles Deleuze, Robert Sasso et Arnaud Villani, dir., Les Cahiers de Noesis, n° 3, Printemps 2003, p. 338.
2 Cette notion est à mettre en perspective avec la notion d'« intervalle » chez Henri Bergson : cf. chapitre I, Matière et mémoire, Essai sur la relation du corps à l'esprit, Paris, PUF Quadrige, 2004, 1ère éd., Paris, PUF, 1939.
3 Cf. travaux de doctorat de Rémi Lavialle, « La situation musicale : l’expérience vécue de la musique, son inscription dans la réalité, les conditions de possibilité de son existence, Université de Lille », soutenance prévue en 2009 ; cf. « Détermination et indétermination ; La musique au moment où elle se joue : la situation musicale », sous presse.
4 Terme générique pour définir l’ensemble des réalisations sonores (musicales ou non) conçues par et pour un support de fixation électronique (analogique ou numérique) et radiodiffusées et/ou projetées en concert via des haut-parleurs (comme un acousmonium).
5 Nous faisons référence aux projections via les systèmes de type acousmonium, à la différence des diffusions sur des haut-parleurs homogènes, système choisi généralement par les musiciens anglo-saxons.
6 Gilles Deleuze, Francis Bacon, Logique de la sensation, Seuil, Paris, 2002, 1ère éd., Paris, Ed. de la Différence, 1981.
7 Gilles Deleuze cite Gilbert Simondon, Logique de la sensation, Ibid, p. 126.
8 Id.
9 Cf. les travaux de Vincent Tiffon sur la médiologie musicale et notamment, « Pour une médiologie musicale comme mode original de connaissance en musicologie », Revue Filigrane n°1, Sampzon, Editions Delatour, 1er semestre 2005, p. 115-139 ; « Pour une médiologie musicale : une étude critique des interactions entre innovations techniques et inventions musicales contemporaines », Université de Lille-3. Soutenance le 09 décembre 2005 à l’Université de Lille-3 [prochainement publiée].
10 Dans ce cadre, nous ne traitons pas de toutes les conditions nécessaires à la réalisation de l'expérience entière, mais nous pointons certaines conditions nécessaires mais non suffisantes de cette expérience entière.
11 Cf. le moule de Simondon évoqué plus haut.
12 CD INA C 3001, 1990. Pour les détails sur les aspects poïétiques de l'oeuvre, cf. Nattiez Jean-Jacques, Mion Philippe, Thomas Jean-Christophe, L'Envers d'une œuvre, de natura sonorum de Parmegiani, Paris, INA-GRM/Buchet/Chastel, 1982, p.56-68.
13 Version Elecktronische und Konkrete Musik disponible en disque compact, STOCKHAUSEN 10, 1995.
14 Le terme apparaît pour la première fois chez Bernard Stiegler dans La Technique et le temps, Tome 1, Paris, Galilée, 1994.
15 François Bayle, Musique acousmatique ; propositions... ...positions, Paris, INA & Buchet/Chastel, 1993 ; Bayle François, L’Image de son, technique de mon écoute, Münster, Lit Verlag, 2003, livre bilingue, Klangbilder, technik meines Hörens.
16 Le « vivre-ensemble » joue sur plusieurs niveaux, et notamment celui des rapports que vont entretenir les musiciens entre eux au moment de l’exécution, et non seulement les rapports préréglés idéalement par le compositeur de la partition.
17 Intégrer un événement sonore étranger à un déroulement donné.
18 Le « ça-est-qui-n'a-jamais-été » est ici à considérer face à un référent temporel ou « expérientiel » et non un référent plastique comme Barthes le fait avec le « ça-a-été » de la la photographie. Cf. Roland Barthes, La Chambre claire, Paris, Cahiers du cinéma/Gallimard/Seuil, 1980.
19 Dans l’ordre, respectivement pages 120, 138, 121 et 131 de La Chambre Claire de Roland Barthes.
20 Romain Bricout « Le glissement plastique de l'enjeu musical dans l'interprétation des musiques électroacoustiques », à paraître.
21 Le Cybernéphone de l'Imeb, Espaces Nouveaux...
22 Sur la question du « ça-n'a-pas-été » et des interfaces, se référer aux travaux de doctorat de Romain Bricout, Les enjeux de la lutherie électronique : de l'influence des outils musicaux sur la création et la réception des musiques électroacoustiques, Université de Lille, soutenance prévue en 2009.
Pour citer ce document
par le jeu musical des arts de la sonofixation», déméter [En ligne], Articles, Thématiques, Textes, Manières de créer des sons, mis à jour le : 07/06/2014, URL : http://demeter.revue.univ-lille3.fr/lodel9/index.php?id=438.