Pour le n°11 du Journal des Allumés du Jazz paru à l'automne 2004, je prenais la casquette de designer sonore et de compositeur pour effleurer les relations qu’entretiennent images et sons au cinéma et dans le multimédia. J'y expose certains aspects de ma démarche, en particulier celui de l’asynchronisme.

L’audiovisuel hémiplégique

Dans audiovisuel, le premier terme est audio. Or le son est paradoxalement ignoré par la majorité des acteurs de ce secteur, ou du moins sous-estimé et mal employé. Il est le plus souvent considéré comme de la post-production, là où il devrait intervenir dès les premiers stades de l’écriture. Son budget est d’ailleurs à l’image de cette conception bancale et inadaptée.
Ce qui est vrai pour le cinéma l’est également pour le multimédia, car tous deux appartiennent à la même histoire, celle de l’audiovisuel, qui commença à la fin du XIXe siècle avec Émile Reynaud, Thomas Edison et les frères Lumière. Ainsi devrions-nous tirer profit des découvertes réalisées tout au long du siècle dernier pour écrire et produire les œuvres audiovisuelles d’aujourd’hui et de demain, quels que soient les supports et les ressources qu’engendrent les nouveaux médias.

Pas illustratif mais complémentaire

Au commencement de l’histoire du cinématographe, les films étaient muets. En fait, ils étaient toujours projetés avec du son. Même dans les plus petites salles, il y avait toujours un orchestre, un pianiste ou un autre soliste, voire des bruitistes, un bonimenteur ou un simple Gramophone (c’est ce qui me donna l’idée d’accompagner des films muets avec Un Drame Musical Instantané, dès 1976 et pour plus d’une vingtaine de créations). Pendant toute la période du muet, pour raconter des histoires sans paroles, le cinématographe n’eut d’autre choix que de développer un langage très inventif. Les intertitres pouvaient éventuellement aider à la compréhension de l’histoire. Au début des années 30, les films devinrent parlants, plutôt que sonores. Une catastrophe ! Pendant les décennies qui suivirent peu de metteurs en scène comprirent l’importance du son, oubliant même l’extraordinaire potentiel des images, au profit d’un bavardage explicatif devant une caméra filmant au mieux de beaux plans soulignés par des musiques convenues.
Heureusement, de Fritz Lang à Jean-Luc Godard, de Jacques Tourneur à Luis Buñuel, de Jacques Tati à David Lynch, ils furent quelques uns à chercher à utiliser le son de manière complémentaire aux images, et non comme une redondance illustrative de ce qui se passe sur l’écran. Au début du Testament du Dr Mabuse, la musique du générique se fond dans le vacarme assourdissant de la presse à billets qui envahit tout l’espace sonore pour créer l’angoisse. Le spectateur ne peut deviner ce que disent les acteurs de Fritz Lang qu’en regardant l’action, suspense lent et étouffant, soutenu par l’impressionnant rythme répétitif de la machine. Dans M le Maudit, le thème de Grieg, issu de Peer Gynt, sifflé par l’assassin, est le moteur de l’intrigue. Dans La femme mariée, Jean-Luc Godard montre Macha Méril lisant un magazine de la presse féminine au café tandis que deux jeunes filles ont une conversation sur le sexe à une autre table. Godard pose la question du mixage censé privilégier le dialogue. Dans Lola Montes, Max Ophüls signale un flash-back par une phrase répétée en écho qui s’évanouit dans le lointain : « La Comtesse se souvient-elle du passé, s’en souvient-elle ? S’en souvient-elle ?… ». Jacques Audiard, dans Sur mes lèvres, nous fait entendre un autre monde, celui de celle qui n’entend pas, et exploite ce handicap pour écrire son scénario… Le son peut aussi élargir le cadre en faisant entendre ce qui n’est pas montré. Par exemple, à faire écouter le paysage pendant un gros plan, on peut suggérer un autre espace, un autre temps, que celui de l’écran. Les bords du cadre deviennent la frontière qui sépare l’image du son. L’acteur en gros plan, s’il est placé dans un espace qu’on ne voit pas, pourrait aussi bien imaginer qu’il est ailleurs, ou dans une autre situation. Au début de Psychose, Alfred Hitchcock montre Janet Leigh imaginant ce qui est supposé se passer à l’endroit qu’elle vient de quitter après y avoir commis un vol. Raoul Sangla me faisait récemment remarquer pourquoi, à la télévision, montrer celui qui parle plutôt que celui qui écoute ? Histoire de langage cinématographique. Le son suggère plus qu’il ne montre.
Pour un designer sonore, l’important n’est pas ce qui est montré mais ce qui est suggéré. Je me souviendrai toujours de ce que Jean-Luc Godard disait du montage : «l’important n’est pas ce qui est conservé, mais ce qui est supprimé». Comme les bords du cadre pour le son, il pointe ici la collure, l’ellipse, no man’s land qui n’appartient ni à un plan ni à l’autre. L’intérêt découle de ce que l’on devine. Nous sommes loin de la télévision actuelle, ou du cinéma le plus courant, qui mâche tout de façon à être certain que le spectateur a bien compris. Quelle place reste-t-il à l’imagination ? Quelle liberté d’interprétation est laissée au spectateur ? La leçon prend le pas sur l’émotion.
Alors que l’illustrateur sonore appuie ce qui est montré à l’écran, le designer sonore travaille sur la couleur du son, de manière à le rendre triste ou drôle, inquiétant ou rassurant, il joue des consonances et dissonances pour créer des effets dramatiques. Il peut produire des émotions, du désir, de la colère, de la légèreté ou du drame, donner des clefs sur ce qui est en train de se passer ou sur ce qui pourrait arriver…
Dans Raging Bull, Martin Scorcese sonorise le match de boxe avec des cris d’animaux, renforçant l’aspect bestial de la scène. Dans ses derniers films, Jean Epstein invente le gros plan sonore en ralentissant certains sons. Dans Lancelot, Robert Bresson semble ne jouer qu’une seule piste à la fois, en mixant tous les sons au même niveau, effet saisissant des armures et des pas qui agissent comme les rimes d’un poème, et le sang qui s’échappe d’un corps décapité coule comme une rivière. Dans tous ses films, Mizoguchi mixe les effets sonores et la musique comme s’ils appartenaient à la même partition. Michel Fano avança ainsi, pour les films d’Alain Robbe-Grillet, le concept de partition sonore, qui englobe tous les sons, voix, bruits, ambiances, musique. Écoutez les films de David Lynch ou même la bande-son d’Amélie Poulain !

Partition sonore et charte sonore

Il pourrait y avoir une charte sonore comme il existe une charte graphique. Tout projet audiovisuel devrait faire appel à un designer sonore comme l’image d’un film est travaillée par un créateur lumière ou que le projet multimédia est supervisé par un directeur graphique. Cela produirait une homogénéité sonore, une identité, exactement comme le chef opérateur façonne lumières et couleurs. Cela participerait à la forme et au style de l’ensemble. Si c’est de plus en plus courant aux États-Unis, il est encore extrêmement rare de voir au générique d’un film français le poste de designer sonore. Ainsi les voix, les bruits, la musique, composent tous la partition, et leur choix, la manière de les enregistrer, de les filtrer, de les traiter, de les monter, de les mixer, sont parties fondamentales de cet art audiovisuel.
S’il est rare que le designer sonore puisse avoir son mot à dire sur le casting, le timbre d’une voix peut pourtant être déterminant dans le mixage final. J’ai pris l’habitude de classer les bruits en deux catégories, les courts (effets) et les longs (ambiances). C’est techniquement plus simple, mais cela réfléchit également la différence entre action et situation. En ce qui concerne la musique, j’ai découvert très tôt que n’importe quel morceau pouvait fonctionner avec n’importe quelle scène de film. C’est fondamentalement le sens qui change ! Le rôle du designer sonore est de contrôler ce sens en fonction des besoins du scénario. Il y a aussi l’éternelle question de l’utilisation de musique originale ou préexistante. L’intérêt et le défaut de cette dernière est qu’elle apporte son lot de références. Cela peut être utile lorsqu’on recherche quelque référence culturelle : la cinquième symphonie de Beethoven dans Verboten de Samuel Fuller, la valse de Strauss dans 2001, l’odyssée de l’espace de Stanley Kubrick, ou encore, je ne sais où, la Marche Nuptiale de Mendelssohn ! Méfions-nous par contre des références individuelles : un souvenir agréable pour les uns peut être un cauchemar pour d’autres (par exemple une chanson entendue lors d’une rencontre pourrait rappeler à quelqu’un d’autre une rupture). Sans parler du coût des droits qui peut carrément ruiner la production…
N’oublions pas qu’une musique, même du domaine public, appartient à son éditeur, celui qui a financé son enregistrement. Prudence donc, d’autant que tant de compositeurs ne demanderaient pas mieux que de composer des musiques totalement adaptées au propos du réalisateur, avec la durée nécessaire, la couleur exacte recherchée, la cohésion de l’ensemble, etc. Dans certains cas, la musique, préalablement composée ou enregistrée, peut même aider au tournage, comme le firent D.W. Griffith, Michael Powell, Jacques Rivette et bien d’autres. Synchronisme accidentel. N’y a-t-il rien de pire que les vidéo-clips où images et sons sont parfaitement synchrones ? Quel est l’intérêt de cette hypnose quasi militaire ? Redondance courante dans les films de long-métrage qui ressassent des musiques convenues en fonction des climax. Il est difficile d’échapper aux cordes sirupeuses dans les passages sentimentaux, et aux rythmes trépidants des scènes d’action.
De mon côté, j’ai souvent préféré suivre le synchronisme accidentel inventé par Jean Cocteau dans La belle et la bête. Cocteau avait commandé à Georges Auric de la musique pour les différentes scènes. Au montage, il permuta les morceaux, couchant la musique d’une scène le long d’une autre et réciproquement. La magie se fit, la musique correspondant à la pensée du film, et Cocteau joua ainsi d’effets d’annonce, de retard, d’écho, plus sophistiqués que toute redondance illustrative. Il n’y a en général aucune nécessité de synchronisme, sauf si l’on désire tel effet de suspense, coup de théâtre, ou une ponctuation particulière… De la même manière, lorsque je compose pour des médias audiovisuels, je m’intéresse d’abord aux idées générales, aux raisons des choix du réalisateur, puis, ayant mémorisé les images, j’écris ou je joue en me calant dans les temps chronométrés. La musique obéit à des lois temporelles, mesurées, telles que toute tentative de la soumettre à celles du montage image risque de saccager. Je ne regarde donc que très rarement l’écran au moment où j’enregistre, et cela colle toujours bien mieux que si j’avais suivi chaque mouvement, chaque respiration. Si le propos est juste, de nouveaux effets de synchronisme apparaissent comme par enchantement. Il est toujours possible, ensuite, de décaler la musique ; il est étonnant de constater comment un décalage d’une image ou deux peut changer le sens d’une scène. Le synchronisme est un leurre. Le design sonore n’a rien à voir avec. Si j’osais, je me résumerais en avançant qu’une plastique appropriée donne sa forme à une œuvre, mais que son fond vient de l’art de désynchroniser !

Medias interactifs

Le son dans les medias interactifs suit les mêmes règles que dans les médias linéaires comme la télévision ou le cinéma, même si certains aspects sont spécifiques, dus aux impératifs techniques. Mais les possibilités offertes par l’interactivité sont réellement déterminantes.
Les objets off-line comme les CD-Roms ou on-line comme sur Internet, sont soumis à des exigences de taille de fichiers, au nombre de pistes utilisables, à la vitesse des processeurs, des connexions ou du temps de chargement. Cela nous oblige à livrer chaque son séparément, en le fabriquant le plus petit possible, à faire des boucles plutôt que de longues ambiances, et ainsi, à composer spécialement pour le support. Mais ces contraintes nous poussent aussi à de nouvelles façons de penser et de composer.
Les questions techniques ne sont pas les plus passionnantes, et j’aime citer Jean Renoir lorsqu’il affirme que la technique n’a d’intérêt que pour pouvoir l’oublier. Selon les projets, j’utilise des instruments acoustiques et électroniques, des sons naturels et ma propre voix, des traitements informatiques et l’enregistrement en temps réel, des séquenceurs et des logiciels de son, etc. À chaque projet correspond une manière originale de procéder. Lorsque je commence un nouveau projet, je recherche d’abord l’orchestration appropriée (la charte sonore, la voici !) et cela ne peut jamais être arbitraire. J’ai différentes petites manies, l’une d’elles consiste, à un certain stade avancé du projet, de ne plus fabriquer de nouveaux éléments, mais de partir de ceux qui existent déjà, pour ne pas risquer d’altérer l’unité de l’ensemble. En dehors de cela, je crois en la rigueur, rigueur du sujet et de ses motivations, rigueur des méthodes de travail, etc.

Humaniser les machines

La question primordiale concernant les médias interactifs est de donner vie aux machines. Rien de plus stupide, de plus servile, qu’un logiciel informatique ! Un ordinateur ne se révolte jamais (en dehors des bugs qui sont, reconnaissons-le, une forme de révolte peu créative), un logiciel est toujours académique… Seul l’homme peut faire de ses erreurs un art. Errare humanum est ! Si un artiste suit parfaitement les lois qui lui ont été enseignées, il ne produira que des œuvres académiques. Ses erreurs forgent son style. Le guitariste autodidacte Hector Berlioz ne savait pas orchestrer, et ainsi inventa-t-il une nouvelle façon de le faire. Les symphonies de Mahler sont trop longues, c’est ce qui fait leur charme. Apollinaire imite Anatole France avec maladresse et invente les poèmes d’Alcools, etc. Comparez une œuvre interprétée par des musiciens vivants et la même programmée mécaniquement sur un séquenceur ! C’est ainsi que j’eus l’idée d’intégrer les erreurs dans le système, pour l’humaniser. Je décidai donc de placer trois sons plutôt qu’un seul pour la même action et de les jouer alternativement en aléatoire. Je choisis de faire de légères variations, et parfois certaines radicales, lorsqu’on revient dans une scène déjà visitée, car le temps a passé. Je trouvai des façons de construire mes boucles pour éviter toute lassitude, en les rendant banales mais en y ajoutant quelques événements sonores isolés, joués aléatoirement à des intervalles irréguliers. Chaque fichier sonore peut être considéré comme un début et une fin, ou appartenir au corpus, pour ne pas briser la continuité de la partition… J’ai ainsi fixé de nouvelles lois que je devrai plus tard à leur tour transgresser…



Musique interactive

Considérant tous ces sons (il y a par exemple 1500 fichiers sonores dans le CD-Rom Alphabet) comme une entité unique, travaillant sur l’interactivité pour éviter toute rupture de rythme, continuant à en découvrir toutes les possibilités au fur et à mesure des avancées technologiques, je fus amené à concevoir, composer et enregistrer de la musique interactive. De mon point de vue, très personnel, design sonore et musique sont très proches l’un de l’autre. Il est vrai que j’ai adopté dès mes débuts une conception varésienne qui consiste à penser que la musique est l’organisation des sons.
Pour produire de la musique interactive, je livre donc au programmeur (appelé aussi développeur) des fichiers sonores séparés et des principes compositionnels. Cette collaboration est une nécessité. Tous les grands programmeurs avec qui je travaille sont des ingénieurs de haut niveau et des mathématiciens totalement allumés : sans Antoine Schmitt, Frédéric Durieu, Xavier Boissarie, je n’aurais pu réaliser ce dont j’avais rêvé, car chaque fois j’ai dû traduire en mots ce qui était intuitif, pour qu’à leur tour, ils traduisent mes idées, concepts, mélodies, harmonies, en algorithmes. En bout de course, et après maints ajustements, c’est censé sonner comme je l’avais imaginé à l’origine ! Cela a réellement commencé ave la lettre L du CD-Rom Alphabet, un trio à cordes que chacun, chacune, peut interpréter à son goût. Cela s’est poursuivi sur le site Internet LeCielEstBleu.org avec les animaux virtuels du Zoo et les trois modules musicaux de Time, enfin avec notre dernière machine infernale, une étonnante boîte à musique programmable intitulée La Pâte à Son (commande de la Cité de la Musique). Je souhaite enfin citer le travail réalisé en collaboration avec le peintre Nicolas Clauss (entretien dans le précédent numéro du Journal et modules sur le site des Allumés) sur les sites flyingpuppet.com et somnambules.net, et avec qui je prépare un spectacle et des installations d’art contemporain.

N.B. : La Pâte à Son était alors exposée au Centre Pompidou (Atelier des enfants) ainsi qu’à Ars Electronica (Musée du Futur). Somnambules était également à Ars Electronica.
P.S. : l'accès à ces œuvres en ligne est devenu difficile aux nouvelles machines et surtout aux nouveaux systèmes. Comme les CD-Rom dont le patrimoine culturel a dramatiquement disparu à vitesse V, le format QuickTime, les plug-ins Flash et Director utilisés pour ces modules interactifs ont été abandonnés. Dans tout ce gâchis il reste des failles qui vous permettront peut-être de vous réenchanter. Cela dépend du système de votre ordinateur et des plug-ins que vous y avez installés...
Aujourd'hui on appréciera des œuvres sur tablette comme La machine à rêves de Leonardo da Vinci (téléchargement gratuit !) ou Boum ! réalisés avec l'équipe des Inéditeurs, ou encore mon travail pour les éditions Volumiques (World of Yo-Ho, La maison fantôme, la collection Zéphyr). Côté cinéma je recommande les DVD Thème Je ou, plus récemment, Baiser d'encre de Françoise Romand dont j'ai composé la partition sonore et la musique...