Écriture de la spatialisation sonore

Formation à l’écriture de la spatialisation sonore avec Sound Trajectory & Spat Revolution

Immersion, interactivité, générativité, logique & sensibilité

À destination des créateurs sonore : musicien, compositeur, ingénieur ou technicien.  Formation prise en charge par l’Afdas

Nos formations sont destinées à assimiler les pratiques d’écriture du son spatialisé et concevoir de nouveaux espaces sonores. Elle sont assurée par Maxence Mercier, compositeur et concepteur de Sound Trajectory et Amélie Nilles compositrice et spécialiste de la spacialisation des musiques électroniques.

Le programme des formations alternent séances théoriques en salle de formation et travaux pratiques en studio immersif (ambisonic 3d | 24 voix de diffusion). Tous les postes de travail sont équipés de Protools, Reaper, Ableton Live, Max, Sound Trajectory et Spat Révolution, ce qui permet à ces formations d’aborder la majorité des techniques et formats de spatialisations immersives existantes pour la musique, le spectacle vivant, le théâtre, le cinéma, la réalité virtuelle, les jeux vidéo, etc…

Durée : 5 jours (40h)
Prix: 2 500 euros
Effectif : 8 participants maximum (4 mini)
lieu : Marseille – LMA – Technopole Chateau-Gombert

Sessions 2020 :

  • 9 au 13 mars
  • 6 au 10 avril
  • 11 au 15 mai
  • 8 au 12 juin

Programme non linéaire

Concepts & Théories

Histoire de la spatialisation : référence historique, technique, composition, médias, architecture.

Perception de l’espace sonore :  acoustique, psychoacoustique et cognition. La production de son spatialisé repose sur la modélisation de phénomènes physiques et de perception auditive.

Esthétique de la spatialisation sonore : Distinction esthétique des espaces sonores de la musique, du cinéma, de la radio et des jeux vidéo.

Manifeste de spatialisation  : Idée et parti pris sur l’écriture spatiale et le mixage d’œuvres sonores.

Formats : Modèle par canal audio : mono, stéréo, 5.1, 5.1, 7.1 etc… | Modèle par objet audio (object base) : Dolby Atmos, ADM et autres | algorithmes et encodages  spatialisation : HOA2D, HOA3D,  DBAP, VBAP, WFS.


Techniques de base

Workflow : Etudes des flux de travail possibles en fonction des usages et des destinations (studio, scène)
Entrées/sorties : formats, types et appareils.
Du 3d au mastering binaural, transaural ou multicanal.
Définition de la destination de la sortie audio (retour DAW, diffusion en salle, etc.)

Espace virtuel : Configuration du module de conception de l’espace : qualité et réalisme de la réverbération, cartographie et caractère, sources fixes ou mobiles, trajectoires, déplacement de masse, importation d’object 3d, déplacement de la position d’écoute dans l’environnement 3d (auditeur)

Sampler : mapping, déclenchement, lecture

Mémoire de scène / Cue Control : Etude des différentes stratégies d’utilisation des changements de mémoire de scène.

Contrôleur : contrôle de ST depuis Lemur ou touchOSC sur Ipad ou une tablette Android.

Spat Révolution : configuration de ST comme contrôleur, gestionnaire de trajectoires et positions spatiales. Mapping OSC entre ST et Spat Révolution


PRATIQUE

  1. Esquisse d’un projet à réaliser (ou exercice)
  2. Préparation des matériaux sonores
  3. Importation dans un séquenceur ou dans le sampler de ST
  4. Ecriture des trajectoires
  5. mise en scène des sons dans l’espace
  6. Automatisation de l’index de trajectoire et autres mouvements
  7. Mastering : 360, 3D, binaural etc…

TECHNIQUES AVANCÉES

Synthèse : Contrôle de la synthèse audio par les trajectoires.

Effets 3d : Utilisation d’effets spatiaux et temporels : distribution spatiale, effet interactif selon trigger audio, osc ou midi, suiveur d’enveloppe, analyse spectrale, retard, etc….

Contrôle d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max8, L-isa, Holophonix, Sonic Emotion | Format d’objet : Définition et manipulation des sources et mapping osc.

Production audio-vidéo 360° : Utilisation du lecteur vidéo synchronisé à une horloge externe. Utilisation des mémoires de scène pour les changements de plans.

Contrôle par capteurs 3d : par osc (gyroscope/accéléromètre Riot Ircam, Iphone, etc….) Exemple de contrôle 3d de l’échantillonneur : déclenchement et spatialisation.

Création algorithmique : importation de trajectoires réalisées dans des logiciels de conception 3D : Blender, Maya, cinema4d, 3dsmax etc…….
Création et contrôle algorithmique depuis des environnements de programmation. Communication OSC en temps réel : Max8, Puredata, OpenMusic, Iannix, Reaktor, Usine, Quartz composer, Isadora, TouchDesigner, VVVVV, Processing

Sound Trajectory & Unity or Unreal
Création de matériaux sonores immersifs ambisonic / HOA réutilisés avec des moteurs de rendu natif ou autres (WWISE, FMOD, FMOD, FB360).

Sound Trajectory sur scêne.
Etude des spécificités sonores immersives sur scène : plan de scène, interaction, calibration du systèmes de diffusion  (volume et retard), amplification, micro et larsen,  effet temps réel….. Connectivité DMX / OSC / MIDI, script terminal, Gestion maître/esclave.

Sound Trajectory seul pour gérer une installation sonore
Interactivité, automatisation de l’installation, programmation de la mise hors tension,  procédure de calibrage automatique. Procédure de sécurité…..
Connectivité DMX / OSC / MIDI, script terminal. Gestion de la conduite maître ou esclave

Algorithmic creation, dynamic mixing
Utilisation étendue des capacités de contrôle à partir d’un environnement de programmation en temps réel. génération en temps réel


EQUIPEMENTS

  • Studio 7x7x7m équipé de 24 moniteur Genelec 8030, 4 SUB BASS
  • Régie Sound Trajectory, Spat Revolution – MOTU AVB 128 canaux
  • Ecran tactile 24pouces
  • Contrôleurs et camera diverse
  • Divers micros

Formateurs

Maxence Mercier est compositeur et artiste numérique, il est le développeur du logiciel Sound Trajectory.  Il crée des œuvres et des dispositif avec du son spatialisé depuis ses débuts en 2002 au sein de l’Imeb (institut International de musique Electroacoustique de Bourges), entouré des pionners de la musiques électronique et électroacoustique. Depuis 2004, il se consacre à des projets de création d’arts numériques, musique et vidéo. Ses pièces ont été diffusées en France et à l’étranger : Usa, Canada, Belgique, Hollande, Chine, Brésil, où il obtient différents prix et sélections : le prix “résidence“ du concours de Bourges 2005, la bourse art numérique 2005 de la SCAM, CIMEPS 2005, Phonurgia Nova, Forum de la jeune Création musicale de la SIMC en 2004 et 2009. Il aborde les problématiques de la transmission de l’information par une approche esthétique, sociologique et comportementale, au sein de dispositifs d’installation et de compositions musicale. C’est dans la multiplicité d’interactions sensibles qu’il tisse les motifs de son écriture.

https://www.maxencemercier.com

https://www.tripinlab.com

 

Amélie Nilles est une compositrice de musiques électroniques résidant à Paris. Influencée par la musique électroacoustique et le jazz, qu’elle a étudiés au conservatoire, elle mêle sa voix aux sons qu’elle capte dans l’environnement (field recording), afin de créer un tout organique. L’espace tient une place aussi importante dans sa musique que le matériau sonore. Elle est diplômée en Musicologie de l’Université Paris VIII au niveau Master 2. Ses recherches, effectuées sous la direction d’Anne Sèdes (CICM), ont porté sur la notion d’espace dans les musiques électroniques, et ont concerné en particulier les aspects compositionnels et perceptifs, ainsi que la notion d’immersion et l’expérience du corps de l’auditeur. Elle continue à expérimenter diverses techniques de restitution du champ sonore, telles que l’Ambisonie (notamment via la bibliothèque HOA développée par le CICM), la Wave Field Synthesis (de Sonic Emotion) et le binaural. Elle collabore également avec différents artistes de musique électronique tels que Molécule. Elle propose une approche qui place la dimension espace de la musique au coeur de composition.

Pour consulter ses thèses de Master sur la spatialisation des musiques électroniques  : https://univ-paris8.academia.edu/AmelieNilles

Soundcloud  :  https://soundcloud.com/amelie-nilles

Maxence MERCIER

Maxence Mercier est compositeur et artiste numérique. Il manipule le son et l’image avec des dispositifs numériques qu’il développe pour ses propres besoins d’écriture. Né en 1982, Formation éclectique, premières expériences musicales en groupe, puis pour le théâtre. Il découvre la composition électroacoustique auprès de Roger Cochini puis complète son apprentissage en collaborant aux activités de l’IMEB (Centre International de musique électroacoustique de Bourges). Depuis 2004, il se consacre à des projets de création entre arts numériques, musique et vidéo. Ses pièces ont été diffusées en France et à l’étranger : Usa, Canada, Belgique, Hollande, Chine, Brésil, où il obtient différents prix et sélections : le prix “résidence“ du concours de Bourges 2005, la bourse art numérique 2005 de la SCAM, CIMEPS 2005, Phonurgia Nova, Forum de la jeune Création musicale de la SIMC en 2004 et 2009. Il aborde les problématiques de la transmission de l’information par une approche esthétique, sociologique et comportementale, au sein de dispositifs d’installation et de compositions musicale. C’est dans la multiplicité d’interactions sensibles qu’il tisse les motifs de son écriture.

Expériences professionnelles

depuis 2004
• Fondateur, directeur de Tripinlab et concepteur du logiciel Sound Trajectory
• Compositeur, réalisateur, plasticien et concepteur d’oeuvres interactives
• Multi-instrumentiste : percussions, piano, saxophone, laptop
• Ingénieur du son, sound designer – Mixeur musique & cinéma
• Directeur artistique de l’association OTRA et de son festival Passerelles.
• Intervenant en écoles d’art et musique, workshop/atelier art numérique, création sonore et
vidéo, création d’outils de création…
• Développeur Max/MSP, Pure Data – pour installation, logiciel autonome pour le live
ou la pédagogie

2002 / 2004
• Responsable du département multimédia IMEB (Institut International de Musique
électroacoustique de Bourges) – Centre National de Création musicale – Bourges (18)

2001
• Animateur multimédia centre culturel de la Barratte Nevers (58)
• Musicien et technicien, réalisation de bande-son pour le théâtre, tournées.

Distinctions
• 2004 Finaliste au concours international de Horspiel de la Muse en Circuit.
• 2004 Lauréat du 3e forum de la SIMC (Société Internationale de Musique contemporaine)
• 2005 Prix Résidence, Concours internationaux de Musique Électroacoustique de Bourges
• 2005 Sélection au CIMESP (Sao Paulo)
• 2006 Bourse & résidence au CEMI (Center for Electronic music & Intermedia) – Texas – USA
• 2009 Lauréat du 8ème forum de la SIMC (Société Internationale de Musique contemporaine)

Séminaire de Jean-François LAPORTE

Le LMA organise, dans le cadre de la plateforme MAS, une conférence de Jean-François Laporte, artiste compositeur Québécois. Il présentera son travail de lutherie inventée, convoquant une réelle approche expérimentale relevant d’une ingénierie minutieuse et inventive.

Cela se fera dans le cadre des séminaires du LMA exceptionnellement un jeudi, le 6 décembre de 11h à 12h.

Quelques mots au sujet de Jean-François Laporte:
Le travail artistique et expérimental de jean-François Laporte l’amène à se présenter en Amérique du nord, Europe et Asie dans les champs croisés de la musique contemporaine, de l’art sonore et de la création numérique plastique, dans des lieux de recherches institutionnels ou alternatifs.
 
Ingénieur de formation, il entreprend par la suite des études de musique à Montréal, qu’il perfectionne à l’Ircam à Paris. Il se spécialise dans la fabrication de ses propres outils de création, augmentés par des dispositifs numériques de contrôle et d’interaction avec le vivant. Il termine actuellement un doctorat création à l’Université d’Huddersfield en Angleterre.
 
Jean-François Laporte parlera de son approche de la musique, basée sur une expérience de la matière concrète, du son à la base de toute sa démarche (que ce soit celle du compositeur, celle du performeur ou celle du luthier).
 
Jean-François Laporte parlera également de ses instruments de musique, de ses  installations. Il apportera un ou deux instruments pour faire une démonstration.
Il interprétera live la pièce Rituel pour FlyingCan , pièce de 8 minutes environ.
 
Quelques lien pour mieux apprécier le travail de Jean-François Laporte :

Compétences

– Modélisation physique
-Traitement du signal
– Prise de son
– Interface homme/machine
– Instrumentation- Etude de capteurs
– Synthèse sonore