Par Michael Petkov-Kleiner
Un mardi matin, Hevré Déjardin nous reçoit dans son laboratoire de recherche, situé au premier étage étage de cette vaste ruche circulaire qu’est la Maison de la Radio. Un labo relativement clean où se côtoient sur un bureau des ordinateurs, une table de mixage et une station de travail (le Système Nuage). Disposées en cercle autour du bureau, je compte une vingtaine d’enceintes. En guise de bienvenue, Hervé Déjardin, avec son look de druide stellaire, me plonge dans le bain en me faisant une écoute 3D de “You Are What You Is” de Frank Zappa. Un dépucelage efficace puisque je ressens pour la première fois de mon existence un morceau de musique dans sa tridimensionnalité : tout autour et en dessus de moi, les différentes pistes sortent des enceintes et créent une sensation inédite d’immersion totale et de mouvement dans l’espace. Mais avant de capter concrètement le fonctionnement de cette technologie et ses futures applications dans la musique électronique, je cherche à savoir quel héritage l’a rendu possible. La parole énergique et rodée par de multiples conférences, le chef opérateur du son au service qualité et innovation de Radio France pour le développement du son multicanal et binaural en vient fatalement à la figure tutélaire de Pierre Schaeffer. Père de la musique concrète et électroacoustique, fondateur du GRM (Groupe de Recherches Musicales) en 1958, c’est sous son impulsion que le son a franchi une première frontière : « Pierre Schaeffer était polytechnicien, ingénieur, musicien, philosophe. Et c’est en tant que philosophe qu’il a changé le paradigme de l’approche sonore. C’est selon moi l’une de ses grandes avancées : Pierre Schaeffer traite le son comme un matériau, comme du bois, de l’argile ou de la pierre ; un matériau dont on peut modifier l’aspect et la forme. Et cette ligne a pu être également franchie grâce aux progrès de l’électronique, et sa capacité à mémoriser le son. Ainsi, ce n’est pas un instrument qui est en train de jouer quelque chose, c’est un instrument qui génère un matériau sonore. On est dans une transformation de la pensée. Pour moi, la grande révolution est là. »
L’autre grande figure est le scientifique allemand Jen Blauert – qui, au début des années 70 mit en équation la perception auditive – dont les travaux firent avancer la modélisation du son 3D dans l’espace de manière déterminante. Explications : « Avec nos deux oreilles, notre cerveau utilise trois indices pour localiser les ondes dans l’espace : le premier un indice d’intensité (si c’est plus fort dans l’une des oreilles, c’est que la source vient de là, ndlr). Le second est un indice de temps : le cerveau est très précis, capable de différencier des différences temporelles d’environ 50 à 60 microsecondes en fonction des individus, car nous n’avons pas tous la même largeur de tête. Le dernier indice est spectral : en fonction d’où se situe la source sonore, notre visage, notre pavillon d’oreille (sa partie externe, ndlr) vont modifier le son par une interaction physique avant qu’il n’entre dans le canal auditif. À partir de là, nous pouvons dire si le son vient de derrière, devant… » Le son 3D, c’est-à-dire le son naturellement traité par le cerveau, une fois reproduit avec ces trois signaux dans les deux oreilles via un casque, définit donc ce que l’on nomme l’écoute « binaurale ».
Bientôt le binaural personnalisé
Le son comme matériau à part entière et sa modélisation spatiale dorment le ferment théorique des avancées en matière sonore. Et ces avancées sont désormais acquises et intégrées depuis plusieurs années (avec les formats multicanaux surround en 5.1 ou 22.2, la démocratisation des outils de production qui incorporent ces fonctions comme Ableton Live ou Reaper, la diffusion de contenus sur Internet notamment sur les sites des chaînes de Radio France comme France Musique ou France Culture, ainsi que sur Hyperradio et sa rubrique Son 3D). Mais qu’en est-il de l’état de la recherche actuelle ? Hervé Déjardin : « On va reprendre l’explication de tout à l’heure, sur comment on percevait les sons dans l’espace avec les deux oreilles et les trois indices. Pour les trois indices, nous n’avons pas tous la même largeur de tête, pas le même pavillon. Ce qui veut dire que notre manière d’encoder les informations est différente pour chaque individu. On entendra certes le même son, mais la manière dont on a exploité ces informations n’est pas la même. Ce point a été l’élément central de nos récentes recherches menées avec l’Ircam, le CNRS, Orange Labs, au seine d’un sonsortium qu’on avait appelé Bili (pour binaural listening, ndlr). » Face à ce constat d’extrême singularité de la réception sonore, une solution s’est imposée : « On va rentrer aujourd’hui dans ce que l’on appelle le ” mode orienté objet”. On va progressivement tenir compte du mode d’écoute mais également des données morphologiques de l’auditeur. Avec une simple photo ou un profil morphologique, on va pouvoir moduler la manière de transférer le son. Celui-ci va donc être encodé de telle manière qu’il va s’adapter à vos usages. La nouvelle frontière est donc la manière dont on reproduit l’espace sonore en fonction de votre lieu et mode d’écoute. C’est le concept de restitution. »
Conséquences de ces différentes innovations concernant les moyens de production et de diffusion, une nouvelle grammaire. Que ce soir pour les reportages ou les créations radiophoniques, on ne raconte pas de la même façon une histoire en 2D ou en 3D. Et surtout, il fait y inclure le facteur « sens », afin de ne pas tomber dans le piège du gadget. Idem pour la production musicale, qui se confronte à des modes d’écriture naissants « Pour tout équilibrer, on va mettre une petite réverbe ici, enlever des aigus là, etc… Eh bien on s’est aperçus qu’en 3D, toutes ces exigences étaient simplifiées, il y avait juste à étaler. Mais ça, c’était la solution de facilité. On s’est ensuite dirigés vers l’idée de mouvement, comment le créer, comme le faire tourner en avant, en arrière, à gauche, à droite, en diagonale… On ‘est ainsi mis à réfléchir la musique en termes d’espace et de mouvement. » Des configurations inédites qui ont été d’ailleurs expérimentées à partir de 2015 lors d’une série de résidences à la Maison de la Radio (la collection Séquences, sur une proposition de Milgram Production, coproduite par la plateforme Culturebox de France Télévisions), où s’illustrèrent Chloé, Arnaud Rebotini, Jacques, Molécule ou NSDOS.
Inventer la techno de demain
Alors, comment ces innovations technologiques vont-elles renouveler la musique électronique, et quelles sont les accointances possibles entre l’un et l’autre ? La question inspire immédiatement Hervé, qui se lance dans un exposé exhaustif et détaillé : « La techno comporte pour nous plusieurs avantages : Un, c’est un milieu très dynamique, on voit plein de créateurs qui vont dans différentes directions. Entre NSDOS, Molécule et Chloé, on est dans des univers totalement différents. Avec des gens comme ça, c’est très intéressant de faire de la recherche au niveau de la narration et de l’écriture. Deux, les compositeurs de musique électronique ont l’esprit ouvert, ils ne sont pas dans un milieu fermé où l’on ne peut pas les bousculer. Trois, cette musique a une grosse audience. Avec un public qui n’a pas d’écoute préformatée. Quatre, sur le plan spatial, il n’y a pas de présupposés, on peut tout se permettre sur dans ces nouvelles formes musicales, contrairement à la musique classique, qui a été essentiellement écrite pour une écoute en salle ou dans des lieux bien définis. Cinq, elle a un autre avantage, c’est qu’il n’y a plus de relation avec le musicien en tant que tel. Quand vous écoutez Chloé au casque, vous ne voyez pas Chloé, mais vous avez une relation directe avec ses sons. Les sons deviennent des entités, des individualités. »
Un dernier point qui permet de spéculer sur les composantes d’une techno à venir : « C’est là que ça devient très intéressant dans le domaine de la perception et de la cognition. Parce qu’avec les sons naturels, ou très peu. Donc là, on peut se permettre de créer des sons qui sont drôles, tristes, on est dans une relation émotionnelle. Si on ajoute le mouvement dans l’espace, il y a vraiment de la vie. Un peu comme des personnages de dessins animés, les sons auront une vie, une personnalité. » Des sons « vivants » dont il faudra trouver les agencements adéquats sur les dancefloors du futur :
«Il faudra repenser l’écriture de la musique électronique et surtout la manière dont on la spatialise, on ne peut pas faire n’importe quoi.»
Il est évident que sur le dancefloor, on va garder la puissance de cette musique qui est basée sur la notion d’état de transe, et qui est dû au triptyque kick/bass/snare. En 3D, ce triptyque doit être placé au centre, pour ne pas le dénaturer. Après, on peut se donner beaucoup plus de liberté avec les autres sons. Créer des atmosphères, faire des choses plus détaillées, appuyer des rythmes et des transitions par des mouvements. L’axe essentiel, c’est l’immersion. Immerger l’auditeur dans un monde qui est constitué de sonore et de visuel.
«Dans les clubs, il y a des choses extrêmement intéressantes à faire avec de l’image sphérique ou demi-sphérique. »
Et de conclure notre entretien avec sa vision personnelle de l’art de demain : « Je crois beaucoup à une nouvelle forme d’art qui arrive avec la réalité virtuelle, une forme d’art total. Je pense que des équipes d’artistes produiront des œuvres basées sur l’immersion. Après tout, ce que recherche l’être humain, c’est l’immersion, quitter le monde de la réalité. Il y a un danger et une force là-dedans. Mais je veux croire au pouvoir de l’imaginaire, et me dire qu’il y aura des artistes pour penser des univers dans lesquels on se sent bien. »