Formation à l’écriture d’espaces sonores avec “Sound Trajectory”

Immersion, interactivité, générativité, logique & sensibilité sonore.

Cette formation est destinée à assimiler les pratiques d’écriture du son spatialisé et concevoir de nouveaux espaces sonores.

Elle est assurée par Maxence Mercier, concepteur de Sound Trajectory, spécialiste de l’interactivité et du son immersif.

La formation s’articule sur 5 jours en alternant séances théoriques en salle de formation et travaux pratiques en studio immersif (ambisonic 3d |  24 voix de diffusion). Tous les postes de travail sont équipés de Protools, Reaper,  Ableton Live, Max, Sound Trajectory et Spat Révolution.

Sound Trajectory peut fonctionner en complémentarité avec le Spat Révolution de Flux::, ce qui permet à cette formation d’aborder la majorité des techniques et formats de spatialisations immersives existantes pour la musique, le spectacle vivant, le théâtre, le cinéma, la réalité virtuelle, les jeux vidéo, etc…

Programme non linéaire

Concepts & Théories

Histoire de la spatialisation : référence historique, technique, composition, médias, architecture.

Perception de l’espace sonore :  acoustique, psychoacoustique et cognition. La production de son spatialisé repose sur la modélisation de phénomènes physiques et de perception auditive.

Esthétique de la spatialisation sonore : Distinction esthétique des espaces sonores de la musique, du cinéma, de la radio et des jeux vidéo.

Manifeste de spatialisation  : Idée et parti pris sur l’écriture spatiale et le mixage d’œuvres sonores.

Formats : Modèle par canal audio : mono, stéréo, 5.1, 5.1, 7.1 etc… | Modèle par objet audio (object base) : Dolby Atmos, ADM et autres | algorithmes et encodages  spatialisation : HOA2D, HOA3D,  DBAP, VBAP, WFS.


Techniques de base

Workflow : Etudes des flux de travail possibles en fonction des usages et des destinations (studio, scène)
Entrées/sorties : formats, types et appareils.
Du 3d au mastering binaural, transaural ou multicanal.
Définition de la destination de la sortie audio (retour DAW, diffusion en salle, etc.)

Espace virtuel : Configuration du module de conception de l’espace : qualité et réalisme de la réverbération, cartographie et caractère, sources fixes ou mobiles, trajectoires, déplacement de masse, importation d’object 3d, déplacement de la position d’écoute dans l’environnement 3d (auditeur)

Sampler : mapping, déclenchement, lecture

Mémoire de scène / Cue Control : Etude des différentes stratégies d’utilisation des changements de mémoire de scène.

Contrôleur : contrôle de ST depuis Lemur ou touchOSC sur Ipad ou une tablette Android.

Spat Révolution : configuration de ST comme contrôleur, gestionnaire de trajectoires et positions spatiales. Mapping OSC entre ST et Spat Révolution


PRATIQUE

  1. Esquisse d’un projet à réaliser (ou exercice)
  2. Préparation des matériaux sonores
  3. Importation dans un séquenceur ou dans le sampler de ST
  4. Ecriture des trajectoires
  5. mise en scène des sons dans l’espace
  6. Automatisation de l’index de trajectoire et autres mouvements
  7. Mastering : 360, 3D, binaural etc…

TECHNIQUES AVANCÉES

Synthèse : Contrôle de la synthèse audio par les trajectoires.

Effets 3d : Utilisation d’effets spatiaux et temporels : distribution spatiale, effet interactif selon trigger audio, osc ou midi, suiveur d’enveloppe, analyse spectrale, retard, etc….

Contrôle d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max8, L-isa, Holophonix, Sonic Emotion | Format d’objet : Définition et manipulation des sources et mapping osc.

Production audio-vidéo 360° : Utilisation du lecteur vidéo synchronisé à une horloge externe. Utilisation des mémoires de scène pour les changements de plans.

Contrôle par capteurs 3d : par osc (gyroscope/accéléromètre Riot Ircam, Iphone, etc….) Exemple de contrôle 3d de l’échantillonneur : déclenchement et spatialisation.

Création algorithmique : importation de trajectoires réalisées dans des logiciels de conception 3D : Blender, Maya, cinema4d, 3dsmax etc…….
Création et contrôle algorithmique depuis des environnements de programmation. Communication OSC en temps réel : Max8, Puredata, OpenMusic, Iannix, Reaktor, Usine, Quartz composer, Isadora, TouchDesigner, VVVVV, Processing

Sound Trajectory & Unity or Unreal
Création de matériaux sonores immersifs ambisonic / HOA réutilisés avec des moteurs de rendu natif ou autres (WWISE, FMOD, FMOD, FB360).

Sound Trajectory sur scêne.
Etude des spécificités sonores immersives sur scène : plan de scène, interaction, calibration du systèmes de diffusion  (volume et retard), amplification, micro et larsen,  effet temps réel….. Connectivité DMX / OSC / MIDI, script terminal, Gestion maître/esclave.

Sound Trajectory seul pour gérer une installation sonore
Interactivité, automatisation de l’installation, programmation de la mise hors tension,  procédure de calibrage automatique. Procédure de sécurité…..
Connectivité DMX / OSC / MIDI, script terminal. Gestion de la conduite maître ou esclave

Algorithmic creation, dynamic mixing
Utilisation étendue des capacités de contrôle à partir d’un environnement de programmation en temps réel. génération en temps réel


EQUIPEMENTS

  • Studio 7x7x7m équipé de 24 moniteur Genelec 8030, 4 SUB BASS
  • Régie Sound Trajectory, Spat Revolution – MOTU AVB 128 canaux
  • Ecran tactile 24pouces
  • Contrôleurs et camera diverse
  • Divers micros

A propos de Maxence Mercier & de Sound Trajectory

Maxence Mercier est compositeur et artiste numérique. Il manipule le son et l’image avec des dispositifs numériques qu’il développe pour ses propres besoins d’écriture.

Né en 1982, il suit une formation éclectique jusqu’à découvrir la composition électroacoustique auprès de Roger Cochini. Il complétera ensuite son apprentissage en collaborant aux diverses activités de l’IMEB (Centre International de musique électroacoustique de Bourges).

Maxence MERCIER

 

Maxence Mercier est compositeur et artiste numérique. Il manipule le son et l’image avec des dispositifs numériques qu’il développe pour ses propres besoins d’écriture. Né en 1982, Formation éclectique, premières expériences musicales en groupe, puis pour le théâtre. Il découvre la composition électroacoustique auprès de Roger Cochini puis complète son apprentissage en collaborant aux activités de l’IMEB (Centre International de musique électroacoustique de Bourges). Depuis 2004, il se consacre à des projets de création entre arts numériques, musique et vidéo. Ses pièces ont été diffusées en France et à l’étranger : Usa, Canada, Belgique, Hollande, Chine, Brésil, où il obtient différents prix et sélections : le prix “résidence“ du concours de Bourges 2005, la bourse art numérique 2005 de la SCAM, CIMEPS 2005, Phonurgia Nova, Forum de la jeune Création musicale de la SIMC en 2004 et 2009. Il aborde les problématiques de la transmission de l’information par une approche esthétique, sociologique et comportementale, au sein de dispositifs d’installation et de compositions musicale. C’est dans la multiplicité d’interactions sensibles qu’il tisse les motifs de son écriture.

Expériences professionnelles
depuis 2004
• Fondateur, directeur de Tripinlab et concepteur du logiciel Sound Trajectory
• Compositeur, réalisateur, plasticien et concepteur d’oeuvres interactives
• Multi-instrumentiste : percussions, piano, saxophone, laptop
• Ingénieur du son, sound designer – Mixeur musique & cinéma
• Directeur artistique de l’association OTRA et de son festival Passerelles.
• Intervenant en écoles d’art et musique, workshop/atelier art numérique, création sonore et
vidéo, création d’outils de création…
• Développeur Max/MSP, Pure Data – pour installation, logiciel autonome pour le live
ou la pédagogie
2002 / 2004
• Responsable du département multimédia IMEB (Institut International de Musique
électroacoustique de Bourges) – Centre National de Création musicale – Bourges (18)
2001
• Animateur multimédia centre culturel de la Barratte Nevers (58)
• Musicien et technicien polyvalent, réalisation de bande-son pour le théâtre, tournées.
Distinctions
• 2004 Finaliste au concours international de Horspiel de la Muse en Circuit.
• 2004 Lauréat du 3e forum de la SIMC (Société Internationale de Musique contemporaine)
• 2005 Prix Résidence, Concours internationaux de Musique Électroacoustique de Bourges
• 2005 Sélection au CIMESP (Sao Paulo)
• 2006 Bourse & résidence au CEMI (Center for Electronic music & Intermedia) – Texas – USA
• 2009 Lauréat du 8ème forum de la SIMC (Société Internationale de Musique contemporaine)

Formation Ableton Live 10

La station de travail audionumérique

La formation ABLETON LIVE est dédiée au DJ, « Live performer », Technicien du son, Technicien du spectacle, Producteur, Etudiant ou tout simplement passionné par la MAO.
Cette formation permettra de maîtriser « Ableton Live Suite » pour le live, le studio, de créer vos propres « livesets » efficaces et performants, de faire du “sound design » dans un environnement ultra polyvalent.

Le formateur dispensant cette formation est Julien Bayle, un des rares formateurs certifiés par Ableton.

    • Vous souhaitez maîtriser Ableton Live Suite pour le live, le studio, le sound design
    • Créer vos propres livesets efficaces et performants.
    • Faire du sound design dans un environnement ultra polyvalent.

Objectifs

  • Apprendre à utiliser les fonctionnalités de Live
  • Maîtriser l’ensemble des instruments et effets de Live
  • Construire et adapter son Liveset à ses besoins
  • Mixage et bases du Mastering

 

Le programme

Premier contact avec Live

  • Historique et introduction
  • Installation et autorisation

Configuration et préférences

  • Préférences du GUI
  • configuration audio et MIDI

Concepts et pré-requis

  • Notion de liveset
  • Pistes Audio et MIDI
  • Les modes Arrangement et Session
  • Concept des clips
  • Le mixer
  • Les instruments, FX & Racks
  • Le système de routage
  • Enveloppes d’automation et de clip
  • Assignation MIDI et clavier d’ordinateur
  • Backup et export
  • Presets et Bibliothèque

Gestion des fichiers, projets et Sets

  • Le browser
  • Les types de fichiers
  • Les clips
  • Les livesets
  • La notion de projet Live
  • La bibliothèque centralisée
  • Le suivi des fichiers
  • Arrangement
  • Navigation et transport
  • Repères et boucle d’arrangement
  • Taille des clips
  • Travail sur les clips

Les clips dans le détails

  • Zone clip
  • Zone notes
  • Zone échantillon et moteur warp
  • Cas particuliers des clips MIDI
  • Lancement des clips et follow actions
  • Enregistrement des clips

Le warping

  • Moteur de suivi rythmique: time warping
  • Modes de time-stretching

Audio-To-MIDI

Les grooves

  • Utilisation des grooves
  • Création de groove et réutilisation

Système de routage

  • Audio I/O
  • MIDI I/O
  • Routage interne
  • Cas du protocole Rewire
  • Cas d’un device max for live

Mixage

  • Différents types de pistes
  • Introduction à l’automation et à la modulation

Les enveloppes en profondeur

  • Automation et Modulation
  • Enveloppes de clips

Les différents types de périphériques

Instruments, effets audio et MIDI
Notions de racks et de chaînes

Utilisation de chaque instrument
Utilisation de chaque chaque effet audio
Utilisation de chaque chaque effet MIDI
Introduction à Max for Live

La synchronisation

  • Synchronisation MIDI
  • Synchronisation Rewire

Formation Max for Live

Pour toutes demandes d’information, vous pouvez nous écrire sur:
mas@lma.cnrs-mrs.fr

Max for Live est l’intégration de l’environnement de programmation interactif multimédia Max8 au sein même de la station de travail audionumérique Ableton Live. Il permet non seulement de créer ses propres périphériques de type instruments (générateur de sons), effet MIDI et effet audio, mais aussi de piloter Live intégralement par le biais de son interface de programmation accessible uniquement par Max for Live et Python. Il est alors possible d’ouvrir Live au monde du Physical Computing et de le contrôler avec des capteurs, des flux provenant d’internet ou encore par le biais de surface de contrôles customisées pour vos besoin spécifiques. Il est, par exemple, possible d’utiliser Live de manière totalement générative avec des périphériques qui vont changer différentes valeurs anciennement accessibles uniquement par le click de souris ; ou encore de créer un système capable de peupler automatiquement la grille de clips avec des clips dont les notes auraient été générées par des algorithmes de composition automatique…

Ces sessions de formation en groupe sont dispensées par Julien Bayle, artiste multidisciplinaire et programmeur Max MSP, certifié par Ableton et professeur invité en école d’art et de design.

OBJECTIFS

  • Apprendre les fondamentaux du framework Max 8 (MaxMSP)
  • Maîtriser Ableton Live par le biais de la programmation et du patching
  • Créer ses propres périphériques pour Live (instruments & effets)
  • Créer des interfaces pour contrôler Live avec une Kinect, un iOS device et plus

PROGRAMME

Introduction à Ableton Live
et historique des langages de programmation temps réel
– Historique et pré-requis
– Description globale d’Ableton

Différences Max / Max for Live de principes & paramétrage de l’environnement

Introduction à Max MSP
– Présentation de l’environnement – L’écriture de patches en quelques mots
– Le système d’aide intégrée
– Les objets de bases de Max (traitements des données, I/O)
– Les objets de base MSP (audio et traitement de l’audio)

Live Object Model et Objets spécifiques de Live
– Le modèle global du moteur interne de Live

– Objets Application et Application.View – Objets Song et Song.View
– Objets Track et Track.View
– Objet ClipSlot

– Objet Clip
– Objet Device
– Objet DeviceParameter
– Objet MixerDevice
– Objet Scene
– Les objets spécifiques (path, object, observer, remote~, UI)

Pratique
– Utilisation des objets spécifiques et globaux
– Création de patches simples pour commencer à pratiquer par soi-même

Gestion des paramètres
– Types de données
– Modulation de paramètres
– Noms de paramètres
– objet pattr et sauvegarde

Création d’effets MIDI et application
Création d’effets audio
Création d’instruments et générateurs de sons

Automation et live/param~

API et Javascript
– Rappel du LOM
– L’objet Javascript LiveAPI et exemple d’utilisation

Formation Max 8 (Max MSP)

L’environnement graphique de programmation multimédia

PROCHAINE FORMATION du 13/05/2019 au 17/05/2019

Plus d’information sur le site AFDAS

La formation MAX/MSP est destinée aux Artistes, Live performer, Technicien du son et du spectacle, Producteur, Etudiant en art ou tout simplement passionné par les environnements temps réel. Formation adaptée pour apprendre à programmer dans un environnement ultra performant et polyvalent pour créer vos propres outils de compositions mais aussi vos DSP audio et vidéo.

Cette formation est dispensée par Julien Bayle, artiste certifié par Ableton et dont le travail sonore et visuel est présenté dans le monde entier. Il programme et utilise Max MSP quotidiennement depuis plus de 15 ans.

Pour toutes demandes d’information, vous pouvez nous écrire sur:
mas@lma.cnrs-mrs.fr

OBJECTIFS

  • Comprendre l’environnement de programmation graphique.
  • Synthèse sonore et audio signal processing MSP
  • Synthèse vidéo, processing vidéo avec Jitter
  • Design d’interfaces et protocoles de communication
  • Savoir évaluer la faisabilité d’un projet
  • gen~ , DSP patches , jit.gen , jit.pix/jit.gl.pix

PROGRAMME

Introduction sur les langages de programmation appliqués au temps réel

Présentation de l’environnement

  •   Configuration, installation et runtime
  •   Êcrire un patche en quelques mots
  •   Le système d’aide intégrée

MAX ou le traitement des données

  •   Les bases (objets et connections, types de données, I/O basiques, architecture de patches, structure de stockage de données, timing, routage de message, mode de présentation et interface utilisateur)
  •   Les objets MIDI
  •   La manipulation de données (visualisation, traitement, enregistrement)
  •   Les interfaces de communication (Serial, Network, câblées ou sans fil)
  •   Introduction à Javascript appliqué à MAX
  •   Exemple de patches: pure interface de données, interface de conversion midi / OSC
  •   Astuces et raccourcis
  •   Le concept message to MAX

MSP, génération et traitement du son

  •   Pré-requis et rappels sur le son numérisé
  •   Fonctionnement de MSP, articulation avec MAX et entrées/sorties audio
  •   Oscillateurs, routage, visualisation du signal et synthèse additive
  •   Les modulations (en anneau, AM, FM) et le waveshaping
  •   Les fondamentaux pour créer des effets (delay, reverb, flanger, chorus)
  •  Exemple de patches: traitement et effets audio, générateur aléatoire de sons
  •  Le concept de compression audio
  •  Le concept message to MSP

L’objet gen~(code generation)

  •   Concept de compilation de patch
  •   Comparaison de performance
  •   La codebox

Jitter, génération traitement de l’image

  •   Pré-requis: notion de matrice et spécificité des objets jitter
  •   Gestion des fichiers video
  •   Gestion des matrices
  •   Flux vidéo live
  •   3D avec OpenGL
  •   Exemple de patches: mixage et effets vidéo, incrustation, synchronization
  •   Jit.gen
  •   Jit.pix et jit.gl.pix / pixel processing

 Applications

  •   Installation sonore reactive (generation de sons, interaction avec l’utilisateur, automate)
  •   Processeur d’effets sonores (traitement de sons)
  •   Interface entre deux applications (conversion de protocols, OSC, MIDI, serial et arduino)

Etude d’exemples

  •   Design d’un séquenceur MIDI
  •   Design d’un LFO assignable et d’un processeur d’effet audio
  •   Design d’un processeur d’effet video

Violent Grains of Silence

Release project by Julien Bayle

Abstract

Violent Grains of Silence is a sound record release project based on the post-processing of 2 hours of silence recorded in very hi-quality in the anechoic room of the Mechanical & Acoustic Research Lab LMA-CNRS in France. These 2 hours have been cut into 10 very specific length pieces and sent into the complex machinery of Eurorack modular system of the artist. He used the silence in many ways, amplifying the signal to reach harsh noise level, used the result to influence some pre-existing continua generated by using oscillators, re-synthesized signal by using granular synthesis with the harsh noise coming from the pieces of silence themselves. From the silence as an influence to the silence as result, Violent Grains of Silence addresses the concept of the impossibility of making the silence itself and the human observing coexisting. The observer changing the observation, the listener changing the sound as the new principle of uncertainty is the underlying concept. The silence doesn’t exist.

Description

During 2 weeks, Julien Bayle recorded sounds starting 3 different projects in the anechoic room of the Mechanical & Acoustic Research Lab LMA-CNRS in France. During this very first art residence in the new location of the Lab, Bayle recorded 2 hours of silence in this 17dB place. The sound is not reverberating and the place is very isolated from the outside too, making it one of the quietest place in the world. He also recorded audio feedback loop at very high volume level and also recorded material as a tribute to Alvin Lucier « I’m not sitting in the room », but using the opposite concept and doing it in the same place and in a non-reverberating place at each new iteration.

These 2 hours of silence have been recorded in 48kHz and 32bit quality using 2 microphones in the center of the room, and oriented each other to an angle of 90° degrees. The room has been closed completely and the process of recording occurred in the middle of the day. Julien Bayle got a specific relationship with silence in his personal life and he linked specific events occurred in 2016 with each track specifically. He used the date of each 10 events and converted it into a time duration. For instance, the 5th August 2016, 05/08/2016 in french notation, became 5,082016. 5,082016 have been converted in min:sec notation and finally became 5 minutes and 4 seconds, which is the duration of the 5th track of the piece.

Silence is used as a sound matter. Amplified, his silence sounds like pink noise. Bayle used it as it is and we can hear the noise bursted in some part of some tracks. But the artist mainly used these silent matter as a modulator, a source of disturbance. In some tracks, Bayle keeps going his research about continuum and how this latter can be disturbed in real-time. For instance, some thick sound textures create a tension in the sound space and we can hear some subtle modification of the global frequency, of the global pitch. These variations are induced by the amplified silence itself. This emerging noise progressively influences and contamines the continuum for creating some space for a new chaos emergence. In other tracks, the artist uses the emerging noise as a source of triggering. This is the essence of discretizing (in the sense of making sporadic & discrete something that was continuous before) a sound textures. Using his tools, he processes the emerging noise for making it only popping out some pulses. Each pulse is then used to trigger some sounds, or even and again, some modifications within the underlying textures.

Cover project

This cover is a prototype. An algorithm designed by the artist, has extracted some parameters of the silence recording and has displayed it as traces on the paper. It is also possible to make a very unique print series, like a limited edition. We can have it printed for free in very hi-res and it could be 1 per copy, for instance.