Laboratoire de Mécanique et d'Acoustique

Formation à l’écriture d’espaces sonores avec “Sound Trajectory”

Immersion, interactivité, générativité, logique & sensibilité sonore.

Cette formation est destinée à assimiler les pratiques d’écriture du son spatialisé et concevoir de nouveaux espaces sonores.

Elle est assurée par Maxence Mercier, concepteur de Sound Trajectory, spécialiste de l’interactivité et du son immersif.

La formation s’articule sur 5 jours en alternant séances théoriques en salle de formation et travaux pratiques en studio immersif (ambisonic 3d |  24 voix de diffusion). Tous les postes de travail sont équipés de Protools, Reaper,  Ableton Live, Max, Sound Trajectory et Spat Révolution.

Sound Trajectory peut fonctionner en complémentarité avec le Spat Révolution de Flux::, ce qui permet à cette formation d’aborder la majorité des techniques et formats de spatialisations immersives existantes pour la musique, le spectacle vivant, le théâtre, le cinéma, la réalité virtuelle, les jeux vidéo, etc…

Programme non linéaire

Concepts & Théories

Histoire de la spatialisation : référence historique, technique, composition, médias, architecture.

Perception de l’espace sonore :  acoustique, psychoacoustique et cognition. La production de son spatialisé repose sur la modélisation de phénomènes physiques et de perception auditive.

Esthétique de la spatialisation sonore : Distinction esthétique des espaces sonores de la musique, du cinéma, de la radio et des jeux vidéo.

Manifeste de spatialisation  : Idée et parti pris sur l’écriture spatiale et le mixage d’œuvres sonores.

Formats : Modèle par canal audio : mono, stéréo, 5.1, 5.1, 7.1 etc… | Modèle par objet audio (object base) : Dolby Atmos, ADM et autres | algorithmes et encodages  spatialisation : HOA2D, HOA3D,  DBAP, VBAP, WFS.


Techniques de base

Workflow : Etudes des flux de travail possibles en fonction des usages et des destinations (studio, scène)
Entrées/sorties : formats, types et appareils.
Du 3d au mastering binaural, transaural ou multicanal.
Définition de la destination de la sortie audio (retour DAW, diffusion en salle, etc.)

Espace virtuel : Configuration du module de conception de l’espace : qualité et réalisme de la réverbération, cartographie et caractère, sources fixes ou mobiles, trajectoires, déplacement de masse, importation d’object 3d, déplacement de la position d’écoute dans l’environnement 3d (auditeur)

Sampler : mapping, déclenchement, lecture

Mémoire de scène / Cue Control : Etude des différentes stratégies d’utilisation des changements de mémoire de scène.

Contrôleur : contrôle de ST depuis Lemur ou touchOSC sur Ipad ou une tablette Android.

Spat Révolution : configuration de ST comme contrôleur, gestionnaire de trajectoires et positions spatiales. Mapping OSC entre ST et Spat Révolution


PRATIQUE

  1. Esquisse d’un projet à réaliser (ou exercice)
  2. Préparation des matériaux sonores
  3. Importation dans un séquenceur ou dans le sampler de ST
  4. Ecriture des trajectoires
  5. mise en scène des sons dans l’espace
  6. Automatisation de l’index de trajectoire et autres mouvements
  7. Mastering : 360, 3D, binaural etc…

TECHNIQUES AVANCÉES

Synthèse : Contrôle de la synthèse audio par les trajectoires.

Effets 3d : Utilisation d’effets spatiaux et temporels : distribution spatiale, effet interactif selon trigger audio, osc ou midi, suiveur d’enveloppe, analyse spectrale, retard, etc….

Contrôle d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max8, L-isa, Holophonix, Sonic Emotion | Format d’objet : Définition et manipulation des sources et mapping osc.

Production audio-vidéo 360° : Utilisation du lecteur vidéo synchronisé à une horloge externe. Utilisation des mémoires de scène pour les changements de plans.

Contrôle par capteurs 3d : par osc (gyroscope/accéléromètre Riot Ircam, Iphone, etc….) Exemple de contrôle 3d de l’échantillonneur : déclenchement et spatialisation.

Création algorithmique : importation de trajectoires réalisées dans des logiciels de conception 3D : Blender, Maya, cinema4d, 3dsmax etc…….
Création et contrôle algorithmique depuis des environnements de programmation. Communication OSC en temps réel : Max8, Puredata, OpenMusic, Iannix, Reaktor, Usine, Quartz composer, Isadora, TouchDesigner, VVVVV, Processing

Sound Trajectory & Unity or Unreal
Création de matériaux sonores immersifs ambisonic / HOA réutilisés avec des moteurs de rendu natif ou autres (WWISE, FMOD, FMOD, FB360).

Sound Trajectory sur scêne.
Etude des spécificités sonores immersives sur scène : plan de scène, interaction, calibration du systèmes de diffusion  (volume et retard), amplification, micro et larsen,  effet temps réel….. Connectivité DMX / OSC / MIDI, script terminal, Gestion maître/esclave.

Sound Trajectory seul pour gérer une installation sonore
Interactivité, automatisation de l’installation, programmation de la mise hors tension,  procédure de calibrage automatique. Procédure de sécurité…..
Connectivité DMX / OSC / MIDI, script terminal. Gestion de la conduite maître ou esclave

Algorithmic creation, dynamic mixing
Utilisation étendue des capacités de contrôle à partir d’un environnement de programmation en temps réel. génération en temps réel


EQUIPEMENTS

  • Studio 7x7x7m équipé de 24 moniteur Genelec 8030, 4 SUB BASS
  • Régie Sound Trajectory, Spat Revolution – MOTU AVB 128 canaux
  • Ecran tactile 24pouces
  • Contrôleurs et camera diverse
  • Divers micros

A propos de Maxence Mercier & de Sound Trajectory

Maxence Mercier est compositeur et artiste numérique. Il manipule le son et l’image avec des dispositifs numériques qu’il développe pour ses propres besoins d’écriture.

Né en 1982, il suit une formation éclectique jusqu’à découvrir la composition électroacoustique auprès de Roger Cochini. Il complétera ensuite son apprentissage en collaborant aux diverses activités de l’IMEB (Centre International de musique électroacoustique de Bourges).