Écriture de la spatialisation sonore

Formation à l’écriture de la spatialisation sonore avec Sound Trajectory & Spat Revolution

Immersion, interactivité, générativité, logique & sensibilité

À destination des créateurs sonore : musicien, compositeur, ingénieur ou technicien.  Formation prise en charge par l’Afdas

Nos formations sont destinées à assimiler les pratiques d’écriture du son spatialisé et concevoir de nouveaux espaces sonores. Elle sont assurée par Maxence Mercier, compositeur et concepteur de Sound Trajectory et Amélie Nilles compositrice et spécialiste de la spacialisation des musiques électroniques.

Le programme des formations alternent séances théoriques en salle de formation et travaux pratiques en studio immersif (ambisonic 3d | 24 voix de diffusion). Tous les postes de travail sont équipés de Protools, Reaper, Ableton Live, Max, Sound Trajectory et Spat Révolution, ce qui permet à ces formations d’aborder la majorité des techniques et formats de spatialisations immersives existantes pour la musique, le spectacle vivant, le théâtre, le cinéma, la réalité virtuelle, les jeux vidéo, etc…

Durée : 5 jours (40h)
Prix: 2 500 euros
Effectif : 8 participants maximum (4 mini)
lieu : Marseille – LMA – Technopole Chateau-Gombert

Sessions 2020 :

  • 9 au 13 mars
  • 6 au 10 avril
  • 11 au 15 mai
  • 8 au 12 juin

Programme non linéaire

Concepts & Théories

Histoire de la spatialisation : référence historique, technique, composition, médias, architecture.

Perception de l’espace sonore :  acoustique, psychoacoustique et cognition. La production de son spatialisé repose sur la modélisation de phénomènes physiques et de perception auditive.

Esthétique de la spatialisation sonore : Distinction esthétique des espaces sonores de la musique, du cinéma, de la radio et des jeux vidéo.

Manifeste de spatialisation  : Idée et parti pris sur l’écriture spatiale et le mixage d’œuvres sonores.

Formats : Modèle par canal audio : mono, stéréo, 5.1, 5.1, 7.1 etc… | Modèle par objet audio (object base) : Dolby Atmos, ADM et autres | algorithmes et encodages  spatialisation : HOA2D, HOA3D,  DBAP, VBAP, WFS.


Techniques de base

Workflow : Etudes des flux de travail possibles en fonction des usages et des destinations (studio, scène)
Entrées/sorties : formats, types et appareils.
Du 3d au mastering binaural, transaural ou multicanal.
Définition de la destination de la sortie audio (retour DAW, diffusion en salle, etc.)

Espace virtuel : Configuration du module de conception de l’espace : qualité et réalisme de la réverbération, cartographie et caractère, sources fixes ou mobiles, trajectoires, déplacement de masse, importation d’object 3d, déplacement de la position d’écoute dans l’environnement 3d (auditeur)

Sampler : mapping, déclenchement, lecture

Mémoire de scène / Cue Control : Etude des différentes stratégies d’utilisation des changements de mémoire de scène.

Contrôleur : contrôle de ST depuis Lemur ou touchOSC sur Ipad ou une tablette Android.

Spat Révolution : configuration de ST comme contrôleur, gestionnaire de trajectoires et positions spatiales. Mapping OSC entre ST et Spat Révolution


PRATIQUE

  1. Esquisse d’un projet à réaliser (ou exercice)
  2. Préparation des matériaux sonores
  3. Importation dans un séquenceur ou dans le sampler de ST
  4. Ecriture des trajectoires
  5. mise en scène des sons dans l’espace
  6. Automatisation de l’index de trajectoire et autres mouvements
  7. Mastering : 360, 3D, binaural etc…

TECHNIQUES AVANCÉES

Synthèse : Contrôle de la synthèse audio par les trajectoires.

Effets 3d : Utilisation d’effets spatiaux et temporels : distribution spatiale, effet interactif selon trigger audio, osc ou midi, suiveur d’enveloppe, analyse spectrale, retard, etc….

Contrôle d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max8, L-isa, Holophonix, Sonic Emotion | Format d’objet : Définition et manipulation des sources et mapping osc.

Production audio-vidéo 360° : Utilisation du lecteur vidéo synchronisé à une horloge externe. Utilisation des mémoires de scène pour les changements de plans.

Contrôle par capteurs 3d : par osc (gyroscope/accéléromètre Riot Ircam, Iphone, etc….) Exemple de contrôle 3d de l’échantillonneur : déclenchement et spatialisation.

Création algorithmique : importation de trajectoires réalisées dans des logiciels de conception 3D : Blender, Maya, cinema4d, 3dsmax etc…….
Création et contrôle algorithmique depuis des environnements de programmation. Communication OSC en temps réel : Max8, Puredata, OpenMusic, Iannix, Reaktor, Usine, Quartz composer, Isadora, TouchDesigner, VVVVV, Processing

Sound Trajectory & Unity or Unreal
Création de matériaux sonores immersifs ambisonic / HOA réutilisés avec des moteurs de rendu natif ou autres (WWISE, FMOD, FMOD, FB360).

Sound Trajectory sur scêne.
Etude des spécificités sonores immersives sur scène : plan de scène, interaction, calibration du systèmes de diffusion  (volume et retard), amplification, micro et larsen,  effet temps réel….. Connectivité DMX / OSC / MIDI, script terminal, Gestion maître/esclave.

Sound Trajectory seul pour gérer une installation sonore
Interactivité, automatisation de l’installation, programmation de la mise hors tension,  procédure de calibrage automatique. Procédure de sécurité…..
Connectivité DMX / OSC / MIDI, script terminal. Gestion de la conduite maître ou esclave

Algorithmic creation, dynamic mixing
Utilisation étendue des capacités de contrôle à partir d’un environnement de programmation en temps réel. génération en temps réel


EQUIPEMENTS

  • Studio 7x7x7m équipé de 24 moniteur Genelec 8030, 4 SUB BASS
  • Régie Sound Trajectory, Spat Revolution – MOTU AVB 128 canaux
  • Ecran tactile 24pouces
  • Contrôleurs et camera diverse
  • Divers micros

Formateurs

Maxence Mercier est compositeur et artiste numérique, il est le développeur du logiciel Sound Trajectory.  Il crée des œuvres et des dispositif avec du son spatialisé depuis ses débuts en 2002 au sein de l’Imeb (institut International de musique Electroacoustique de Bourges), entouré des pionners de la musiques électronique et électroacoustique. Depuis 2004, il se consacre à des projets de création d’arts numériques, musique et vidéo. Ses pièces ont été diffusées en France et à l’étranger : Usa, Canada, Belgique, Hollande, Chine, Brésil, où il obtient différents prix et sélections : le prix “résidence“ du concours de Bourges 2005, la bourse art numérique 2005 de la SCAM, CIMEPS 2005, Phonurgia Nova, Forum de la jeune Création musicale de la SIMC en 2004 et 2009. Il aborde les problématiques de la transmission de l’information par une approche esthétique, sociologique et comportementale, au sein de dispositifs d’installation et de compositions musicale. C’est dans la multiplicité d’interactions sensibles qu’il tisse les motifs de son écriture.

https://www.maxencemercier.com

https://www.tripinlab.com

 

Amélie Nilles est une compositrice de musiques électroniques résidant à Paris. Influencée par la musique électroacoustique et le jazz, qu’elle a étudiés au conservatoire, elle mêle sa voix aux sons qu’elle capte dans l’environnement (field recording), afin de créer un tout organique. L’espace tient une place aussi importante dans sa musique que le matériau sonore. Elle est diplômée en Musicologie de l’Université Paris VIII au niveau Master 2. Ses recherches, effectuées sous la direction d’Anne Sèdes (CICM), ont porté sur la notion d’espace dans les musiques électroniques, et ont concerné en particulier les aspects compositionnels et perceptifs, ainsi que la notion d’immersion et l’expérience du corps de l’auditeur. Elle continue à expérimenter diverses techniques de restitution du champ sonore, telles que l’Ambisonie (notamment via la bibliothèque HOA développée par le CICM), la Wave Field Synthesis (de Sonic Emotion) et le binaural. Elle collabore également avec différents artistes de musique électronique tels que Molécule. Elle propose une approche qui place la dimension espace de la musique au coeur de composition.

Pour consulter ses thèses de Master sur la spatialisation des musiques électroniques  : https://univ-paris8.academia.edu/AmelieNilles

Soundcloud  :  https://soundcloud.com/amelie-nilles

Formation Ableton Live 10

La station de travail audionumérique

La formation ABLETON LIVE est dédiée au DJ, « Live performer », Technicien du son, Technicien du spectacle, Producteur, Etudiant ou tout simplement passionné par la MAO.
Cette formation permettra de maîtriser « Ableton Live Suite » pour le live, le studio, de créer vos propres « livesets » efficaces et performants, de faire du “sound design » dans un environnement ultra polyvalent.

Le formateur dispensant cette formation est Julien Bayle, un des rares formateurs certifiés par Ableton.

    • Vous souhaitez maîtriser Ableton Live Suite pour le live, le studio, le sound design
    • Créer vos propres livesets efficaces et performants.
    • Faire du sound design dans un environnement ultra polyvalent.

Objectifs

  • Apprendre à utiliser les fonctionnalités de Live
  • Maîtriser l’ensemble des instruments et effets de Live
  • Construire et adapter son Liveset à ses besoins
  • Mixage et bases du Mastering

 

Le programme

Premier contact avec Live

  • Historique et introduction
  • Installation et autorisation

Configuration et préférences

  • Préférences du GUI
  • configuration audio et MIDI

Concepts et pré-requis

  • Notion de liveset
  • Pistes Audio et MIDI
  • Les modes Arrangement et Session
  • Concept des clips
  • Le mixer
  • Les instruments, FX & Racks
  • Le système de routage
  • Enveloppes d’automation et de clip
  • Assignation MIDI et clavier d’ordinateur
  • Backup et export
  • Presets et Bibliothèque

Gestion des fichiers, projets et Sets

  • Le browser
  • Les types de fichiers
  • Les clips
  • Les livesets
  • La notion de projet Live
  • La bibliothèque centralisée
  • Le suivi des fichiers
  • Arrangement
  • Navigation et transport
  • Repères et boucle d’arrangement
  • Taille des clips
  • Travail sur les clips

Les clips dans le détails

  • Zone clip
  • Zone notes
  • Zone échantillon et moteur warp
  • Cas particuliers des clips MIDI
  • Lancement des clips et follow actions
  • Enregistrement des clips

Le warping

  • Moteur de suivi rythmique: time warping
  • Modes de time-stretching

Audio-To-MIDI

Les grooves

  • Utilisation des grooves
  • Création de groove et réutilisation

Système de routage

  • Audio I/O
  • MIDI I/O
  • Routage interne
  • Cas du protocole Rewire
  • Cas d’un device max for live

Mixage

  • Différents types de pistes
  • Introduction à l’automation et à la modulation

Les enveloppes en profondeur

  • Automation et Modulation
  • Enveloppes de clips

Les différents types de périphériques

Instruments, effets audio et MIDI
Notions de racks et de chaînes

Utilisation de chaque instrument
Utilisation de chaque chaque effet audio
Utilisation de chaque chaque effet MIDI
Introduction à Max for Live

La synchronisation

  • Synchronisation MIDI
  • Synchronisation Rewire

Formation Max for Live

Pour toutes demandes d’information, vous pouvez nous écrire sur:
mas@lma.cnrs-mrs.fr

Max for Live est l’intégration de l’environnement de programmation interactif multimédia Max8 au sein même de la station de travail audionumérique Ableton Live. Il permet non seulement de créer ses propres périphériques de type instruments (générateur de sons), effet MIDI et effet audio, mais aussi de piloter Live intégralement par le biais de son interface de programmation accessible uniquement par Max for Live et Python. Il est alors possible d’ouvrir Live au monde du Physical Computing et de le contrôler avec des capteurs, des flux provenant d’internet ou encore par le biais de surface de contrôles customisées pour vos besoin spécifiques. Il est, par exemple, possible d’utiliser Live de manière totalement générative avec des périphériques qui vont changer différentes valeurs anciennement accessibles uniquement par le click de souris ; ou encore de créer un système capable de peupler automatiquement la grille de clips avec des clips dont les notes auraient été générées par des algorithmes de composition automatique…

Ces sessions de formation en groupe sont dispensées par Julien Bayle, artiste multidisciplinaire et programmeur Max MSP, certifié par Ableton et professeur invité en école d’art et de design.

OBJECTIFS

  • Apprendre les fondamentaux du framework Max 8 (MaxMSP)
  • Maîtriser Ableton Live par le biais de la programmation et du patching
  • Créer ses propres périphériques pour Live (instruments & effets)
  • Créer des interfaces pour contrôler Live avec une Kinect, un iOS device et plus

PROGRAMME

Introduction à Ableton Live
et historique des langages de programmation temps réel
– Historique et pré-requis
– Description globale d’Ableton

Différences Max / Max for Live de principes & paramétrage de l’environnement

Introduction à Max MSP
– Présentation de l’environnement – L’écriture de patches en quelques mots
– Le système d’aide intégrée
– Les objets de bases de Max (traitements des données, I/O)
– Les objets de base MSP (audio et traitement de l’audio)

Live Object Model et Objets spécifiques de Live
– Le modèle global du moteur interne de Live

– Objets Application et Application.View – Objets Song et Song.View
– Objets Track et Track.View
– Objet ClipSlot

– Objet Clip
– Objet Device
– Objet DeviceParameter
– Objet MixerDevice
– Objet Scene
– Les objets spécifiques (path, object, observer, remote~, UI)

Pratique
– Utilisation des objets spécifiques et globaux
– Création de patches simples pour commencer à pratiquer par soi-même

Gestion des paramètres
– Types de données
– Modulation de paramètres
– Noms de paramètres
– objet pattr et sauvegarde

Création d’effets MIDI et application
Création d’effets audio
Création d’instruments et générateurs de sons

Automation et live/param~

API et Javascript
– Rappel du LOM
– L’objet Javascript LiveAPI et exemple d’utilisation

Formation Max 8 (Max MSP)

L’environnement graphique de programmation multimédia

PROCHAINE FORMATION du 13/05/2019 au 17/05/2019

Plus d’information sur le site AFDAS

La formation MAX/MSP est destinée aux Artistes, Live performer, Technicien du son et du spectacle, Producteur, Etudiant en art ou tout simplement passionné par les environnements temps réel. Formation adaptée pour apprendre à programmer dans un environnement ultra performant et polyvalent pour créer vos propres outils de compositions mais aussi vos DSP audio et vidéo.

Cette formation est dispensée par Julien Bayle, artiste certifié par Ableton et dont le travail sonore et visuel est présenté dans le monde entier. Il programme et utilise Max MSP quotidiennement depuis plus de 15 ans.

Pour toutes demandes d’information, vous pouvez nous écrire sur:
mas@lma.cnrs-mrs.fr

OBJECTIFS

  • Comprendre l’environnement de programmation graphique.
  • Synthèse sonore et audio signal processing MSP
  • Synthèse vidéo, processing vidéo avec Jitter
  • Design d’interfaces et protocoles de communication
  • Savoir évaluer la faisabilité d’un projet
  • gen~ , DSP patches , jit.gen , jit.pix/jit.gl.pix

PROGRAMME

Introduction sur les langages de programmation appliqués au temps réel

Présentation de l’environnement

  •   Configuration, installation et runtime
  •   Êcrire un patche en quelques mots
  •   Le système d’aide intégrée

MAX ou le traitement des données

  •   Les bases (objets et connections, types de données, I/O basiques, architecture de patches, structure de stockage de données, timing, routage de message, mode de présentation et interface utilisateur)
  •   Les objets MIDI
  •   La manipulation de données (visualisation, traitement, enregistrement)
  •   Les interfaces de communication (Serial, Network, câblées ou sans fil)
  •   Introduction à Javascript appliqué à MAX
  •   Exemple de patches: pure interface de données, interface de conversion midi / OSC
  •   Astuces et raccourcis
  •   Le concept message to MAX

MSP, génération et traitement du son

  •   Pré-requis et rappels sur le son numérisé
  •   Fonctionnement de MSP, articulation avec MAX et entrées/sorties audio
  •   Oscillateurs, routage, visualisation du signal et synthèse additive
  •   Les modulations (en anneau, AM, FM) et le waveshaping
  •   Les fondamentaux pour créer des effets (delay, reverb, flanger, chorus)
  •  Exemple de patches: traitement et effets audio, générateur aléatoire de sons
  •  Le concept de compression audio
  •  Le concept message to MSP

L’objet gen~(code generation)

  •   Concept de compilation de patch
  •   Comparaison de performance
  •   La codebox

Jitter, génération traitement de l’image

  •   Pré-requis: notion de matrice et spécificité des objets jitter
  •   Gestion des fichiers video
  •   Gestion des matrices
  •   Flux vidéo live
  •   3D avec OpenGL
  •   Exemple de patches: mixage et effets vidéo, incrustation, synchronization
  •   Jit.gen
  •   Jit.pix et jit.gl.pix / pixel processing

 Applications

  •   Installation sonore reactive (generation de sons, interaction avec l’utilisateur, automate)
  •   Processeur d’effets sonores (traitement de sons)
  •   Interface entre deux applications (conversion de protocols, OSC, MIDI, serial et arduino)

Etude d’exemples

  •   Design d’un séquenceur MIDI
  •   Design d’un LFO assignable et d’un processeur d’effet audio
  •   Design d’un processeur d’effet video

Formation ARDUINO

L’environnement hardware open-source pour les artistes et designers

La formation Arduino est dédiée aux artistes, designers, interaction designer, étudiant en école d’art.
Cette formation permettra d”apprendre l’électronique pour l’utiliser immédiatement dans vos projets artistiques d’installations numériques réactives ou encore pour concevoir vos propres interfaces hardware pour piloter vos logiciels.

OBJECTIFS

  • Apprendre les bases de l’électronique
  • Apprendre le langage C et C++
  • Savoir concevoir un projet Arduino de l’idée à la réalisation
  • Connecter Arduino aux mondes physique et virtuel

Le programme

  • Introduction et historique des microcontrollers et du projet Wiring.
  • Présentation de la famille Arduino
  • Principes et étapes du hardware prototyping
  • Installer l’environnement Arduino IDE
  • Bases d’électricité
  • Introduction à Fritzing pour le design de circuits
  • Premier contact avec le langage C
  • Notion de librairies
  • Les variables et les types
  • Structures conditionnelles
  • Structures de boucles
  • Comparaisons
  • Les fonctions et la notion de scope
  • Approche de l’optimisation avec les lookup table et les approximations
  • Introduction au tangible design
  • Les entrées digitales et analogiques
  • Les communications série
  • Les sorties et le feedback visuel
  • Faire bouger le monde physique
  • Les transistors et les relais
  • Les moteurs
  • Faire des sons
  • Comprendre les protocoles MIDI et OSC
  • Créer un petit synthétiseur contrôlable
  • La librairie PCM pour lire des fichiers numériques encodés
  • I2C et SPI pour le contrôle de display LCD et LED drivers
  • Communiquer avec Max7 et Processing
  • Réseau et connections distantes
  • L’optimisation de code
  • Étudier la faisabilité d’un projet
  • Introduction à Fritzing