Outils pour utilisateurs

Outils du site


projets:double:soizic

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
projets:double:soizic [2016/06/23 17:06] – [Main droite - Roue (prototype)] soisicprojets:double:soizic [2024/02/09 16:56] (Version actuelle) – modification externe 127.0.0.1
Ligne 58: Ligne 58:
 ==== 1. Celle qui concerne le questionnement sur le dispositif de jeu ==== ==== 1. Celle qui concerne le questionnement sur le dispositif de jeu ====
  
- 
-Réfléchir et concevoir un programme qui permette de donner l'illusion d'un double autonome en interaction avec moi.  
 Comment créer un double qui soit généré par ma performance sans être à l'identique ?  Comment créer un double qui soit généré par ma performance sans être à l'identique ? 
 +
 +Il s’agit de réfléchir et concevoir un programme qui permette de donner l'illusion d'un double autonome en interaction avec moi. 
  
 Le principe du logiciel Omax qui selon l'IRCAM, « crée un clone à partir du jeu vivant et offre la possibilité de jouer avec les capacités d'apprentissage et d'imprévisibilité de la machine. » Le principe du logiciel Omax qui selon l'IRCAM, « crée un clone à partir du jeu vivant et offre la possibilité de jouer avec les capacités d'apprentissage et d'imprévisibilité de la machine. »
  
-Commander le double en live ? Quels stimuli (geste, sons ou autres) pour quelles réponses sonores ? +//Commander le double en live ? Quels stimuli (geste, sons ou autres) pour quelles réponses sonores ?// 
  
 Les commandes envisagées : analyser, enregistrer, diffuser, spatialiser, synchroniser….  Les commandes envisagées : analyser, enregistrer, diffuser, spatialiser, synchroniser…. 
  
-4 pistes/procédés programmatoiresqui peuvent se compléter donc se combiner ?+Voici les 4 pistes/procédés programmatoires qui se compléteront en se combinant pendant la performance: 
 + 
 +**• Les commandes du double s’inscrivent dans mes gestes musicaux de production sonore pendant la performance.** 
 + 
 +Deux types de mouvements seront expérimentés : 1. le déplacement du bras gauche le long de la touche, qui entraine un geste de haut en bas et vice versa à des vitesses différentes 2. la pression des doigts de la main gauche (appuyé, effleuré). Cette première hypothèse nécessite un temps d’expérimentation du dispositif de captation proposé et le jeu instrumental qui est le mien, de façon à sélectionner les mouvements les plus pertinents en fonction des commandes qu’ils génèreront. Il s’agit alors pour moi de créer les liens entre geste musical de la main gauche et envoi d’un son ou d’un filtre qui permet d’installer une couleur, une tendance, un phrasé….  
 + 
 +//Exemple : un geste du bras gauche lent, un son feutré généré par le double ?//  
 + 
 +//Remarques : ça pose la question de la sensibilité du capteur de mouvement, comment ça marche, que peut-il capter ? ça pose la question de la fréquence de la réponse à la captation du mouvement : est-elle systématique ou bien aléatoire ?//  
 + 
 +<fc #ff0000>//Temps de développement : 1 à 2 semaines ?//</fc> 
 + 
 +<fc #ff0000>//Outils multimédias et numériques envisagés ://</fc> 
 + 
 +<fc #ff0000>//Autres outils techniques ://</fc> 
 + 
 +<fc #ff0000>//Budget prévisionnel ://</fc> 
 + 
 +**• Les commandes du double ne sont pas générées par des gestes musicaux.** 
 + 
 +Il s’agit de commandes on/off, en nombre réduit, avec une interface comprenant des boutons tactiles, actionnés par la main gauche, placée sur la table du violoncelle en haut à gauche. 
 + 
 +//Par exemple, on/off pour l’effet spatialisation, on/off pour l’analyse du son (à voir si c’est mieux ainsi qu’une analyse en continue), on/off pour des échantillons sonores préenregistrés// 
 + 
 +<fc #ff0000>//Temps de développement ://</fc>  
 + 
 +<fc #ff0000>//Outils multimédias et numériques envisagés ://</fc> 
 + 
 +//<fc #ff0000>Outils techniques autres :</fc>// 
 + 
 +<fc #ff0000>//Budget prévisionnel ://</fc> 
 + 
 +**• Les commandes sont fonction de l’analyse du son de la performance en live.** 
 + 
 +Les événements choisis dans le matériau sonore envisagés (drone) doivent être assez saillants pour qu’ils soient analysés, reconnus et qu’ils génèrent une réponse sonore adaptée et programmée (spatialisation notamment). Cette réponse sonore du double se fera en temps réel et/ou en rediffusion.  
 + 
 +//Exemples d’événements détectés et détectables : le silence ? Pas si sûr, s’il y a du son du côté du double, le micro du cello peut capter ce son….  les éléments percussifs liés aux frottements de la roue sur corde grave détendue ? les battements que génèrent les dissonances ? les nuances (fort ou piano) ? 
 + 
 +Questionnements : cette analyse peut-elle être faite en continue ou bien peut-elle être fragmentée et commandée extérieurement ? L’analyse spectrale du son et/ou sa traduction graphique (cf acousmographe ci-après) peuvent-elles être reconnues par programme informatique ? Si oui, comment ?// 
 + 
 +<fc #ff0000>//Temps de développement ://</fc> 
 + 
 +<fc #ff0000>//Outils numériques et multimédias envisagés ://</fc> 
 + 
 +<fc #ff0000>//Outils techniques autres ://</fc> 
 + 
 +<fc #ff0000>//Budget prévisionnel ://</fc> 
 + 
 +**• Les commandes ne sont pas directement induites par l’interprète.**  
 + 
 +Elles seront préparées et préprogrammées en amont selon des règles définies aléatoirement ou pas à chaque performance. Le matériau sonore diffusé sera soit des fragments ou bandes sons enregistrées préalablement, soit des prélèvements (échantillons) du son live, de durées variables.  
 + 
 +//Par exemple : 1 seconde de son prélevée toutes les minutes, diffusée et spatialisée sur 24 secondes à la 24e minutes de la composition. Cela permet notamment de créer des événements sonores de nature différente de ceux qui sont générés en live, une intervention du double, impossible à se représenter avant que cela n’arrive, pour moi, un élément imprévu.//
  
-• Si les commandes s’inscrivent dans mes gestes musicaux de production sonore pendant la performance (mouvement du bras gauche, pression des doigts de la main gauche), c’est le top je pense mais il faudrait que j’expérimente ça pour en être sûre…. Il s’agit alors pour moi de créer les liens entre geste musical de la main gauche et envoi d’un son ou d’un filtre qui permet d’installer une couleur, une tendance, un phrasé…. Exemple un geste lent, un son doux ? ça pose la question de la sensibilité du capteur de mouvement, comment ça marche ?+<fc #ff0000>//Temps de développement ://</fc>
  
-• Si ces gestes de commande du double ne sont pas générés par des gestes musicaux, alors je souhaite que les gestes de commande soient ultra simplifiés, ça veut dire un nombre réduit de commande durant la performance, via set réduit de boutons tactiles de confirmations ou d’infirmation de commande, pour la main gauche sur le haut du violoncelle. +<fc #ff0000>//Outils numériques et multimédias envisagés ://</fc>
  
-• [Procédé OMAX] Si les commandes sont fonctions de l’analyse du son de la performance en live (cette analyse peut-elle être faite en continu et autonome ou bien peut-elle être fragmentée et commandée extérieurement ? quels événements choisir dans le matériau sonore envisagés (drone) qui soient assez saillants pour qu’ils soient analysés, reconnus et qu’ils génèrent une réponse sonore adaptée ? cette réponse sonore du double est-elle possible en temps réel, ou doit-elle être pensée en rediffusion ? Pour le moment quelques événements saillants : le silence, les éléments percussifs liés aux frottements de la roue sur corde grave détendue, les battements que génèrent les dissonances, les nuances (fort ou piano),  +<fc #ff0000>//Budget prévisionnel ://</fc>
  
-• Si les commandes ne sont pas directement fonctions de comment je joue en live, je prépare des bandes sons enregistrées en amont rediffusées « aléatoirement » pendant la performance, et/ou prévoir des prélèvement d'un échantillon du son live, de durées variables rediffusées « aléatoirement » ou selon des règles définies en amont.  
  
 ==== 2. Celle qui concerne le dispositif de roue électrique et de champs électromagnétique excitant la corde la plus fine ==== ==== 2. Celle qui concerne le dispositif de roue électrique et de champs électromagnétique excitant la corde la plus fine ====
Ligne 85: Ligne 136:
 On part aussi sur l’idée de mettre la corde la plus aigüe et la plus fine en résonance grâce à la variation d’un champ électromagnétique. On part aussi sur l’idée de mettre la corde la plus aigüe et la plus fine en résonance grâce à la variation d’un champ électromagnétique.
  
 +<fc #ff0000>//Temps de développement ://</fc> 
 +
 +<fc #ff0000>//Outils multimédias et numériques envisagés ://</fc>
 +
 +//<fc #ff0000>Outils techniques autres :</fc>//
 +
 +<fc #ff0000>//Budget prévisionnel ://</fc>
 ==== 3. Celle qui concerne la spatialisation ==== ==== 3. Celle qui concerne la spatialisation ====
    
Ligne 90: Ligne 148:
 Voir dispositif d’amplification et disposition scénique ci-dessus. J’envisage de programmer la spatialisation en amont une fois que j’aurais une idée plus claire de la composition globale.  Voir dispositif d’amplification et disposition scénique ci-dessus. J’envisage de programmer la spatialisation en amont une fois que j’aurais une idée plus claire de la composition globale. 
  
-dispositif scénique+<fc #ff0000>//Temps de développement ://</fc>  
 + 
 +<fc #ff0000>//Outils multimédias et numériques envisagés ://</fc> 
 + 
 +//<fc #ff0000>Outils techniques autres :</fc>// 
 + 
 +<fc #ff0000>//Budget prévisionnel ://</fc> 
 + 
 +__Dispositif scénique__
  
 {{:soizic:double_cello.jpg?200|}} {{:soizic:double_cello.jpg?200|}}
Ligne 97: Ligne 163:
 ===== Les outils numériques envisagés ===== ===== Les outils numériques envisagés =====
  
 +===== Temps de développement de l’œuvre et ses différents objectifs =====
  
-<fc #ff0000> +===== Budget prévisionnel détaillé du développement de l’œuvre faisant apparaître les dépenses propres à chacun des postes concernés =====
-………………..à compléter !</fc>+
  
-===== Temps de développement de l’œuvre et ses différents objectifs ===== 
  
 +===== Ébauche de calendrier de développement de l’œuvre et de sa diffusion =====
  
-<fc #ff0000>…………………….à compléter</fc>+**Juin-juillet-août 2016** : réflexions sur le dispositif de jeu : roue, champ électromagnétique, capteur de mouvement et de rpession, programmation pure data du double numérique // perspectives de réalisation :  équipe de travail (JEF, Alain, Soizic, (Dom)) // budgétisation // phase de production : recherche de subventions auprès de : REGION (réponse 18 nov 2016), DEPARTEMENT (réponse février 2017), DICREAM (DRAC) (réponse fin octobre 2016), SPEDIDAM, ADAMI (réponses fin janvier 2017) // réflexion sur les matériaux du répertoire monophonique avec la roue prototype, en lien avec les premières réflexions sur la logique comprovisationnelle du double, première projection de « dispositif de comprovisation » en vue de réaliser les patch pure data et définir des commandes « simples » via boutons tactiles  
  
-===== Budget prévisionnel détaillé du développement de l’œuvre faisant apparaître les dépenses propres à chacun des postes concernés ===== 
  
 +**Septembre - novembre 2016** : enregistrements des matériaux sonores du double avec la roue prototype (soizic) /  Essai de classement des matériaux sonores en un répertoire cohérent / Première programmation du double acousmatique sur le principe d'une bande sonore faite de la combinaison des matériaux sonores (répertoire), combinaison qui se décide avant la performance de façon aléatoire  (Alain) / pratique de ce 1er dispositif (Soizic) / 1er essais de spatialisation préprogrammé du double acousmatique (Alain) / fabrication de la roue définitive (Jef, Dominique)
  
-<fc #ff0000>……………………….à compléter</fc>+** décembre 2016 - janvier 2017 ** : réenregistrement des matériaux sonores du double avec roue définitive (Soizic) fabriction dispositif de capteurs de mouvement sur main et bras gauche, et pressions des doigts (jef) / pratique de ce dispositif avec capteur (Soizic)
  
 +** février / mars 2017 ** :  composition de la pièce musicale / répétition de l’interprète pour apprendre la partition 
  
-====== Ébauche de calendrier de développement de l’œuvre et de sa diffusion ======+** mars 2017** : fin de résidence  : 1ère monstration du travail à Nantes / Lolab
  
 +**avril 2017** : création à Nantes / Lieu Unique / Résidence de 5 jours au Lieu unique (en cours)
  
-Juin-juillet-août 2016 conception et réalisation du dispositif de jeu : roue, champ électromagnétique, programmation pure data du double numérique. +** mai 2017** Metz / Fragment
-  +
-ordi, carte son, patch ?+
  
-en cours de réalisation de mon côté enregistrements des matériaux du répertoire monophonique avec la roue prototype, en lien avec les premières réflexions sur la logique comprovisationnelle du double +** mai 2017** Besançon / Tonie Sonie
-première ébauche de « partition » en vue de réaliser les patch pure data et définir des commandes « simples » via boutons tactiles  +
  
-Septembre / octobre 2016 enregistrements des matériaux sonores du double avec la roue définitive / finalisation du programme pure data en lien avec l’écriture de l’œuvre / composition de la pièce musicale répétition de l’interprète pour apprendre la partition +** septembre 2017** La Rocheservière Site Saint-Sauveur
  
-Novembre / décembre 2016 pratique du dispositif spatialisation et mixage en direct de la pièce musicale en fonction du dispositif scénique +** septembre 2017** Tours La chapelle Saint-Anne 
  
-Janvier 2017 : 1ère monstration du travail à Tours / Chapelle Saint-Anne 
  
-Février 2017 : Création à Nantes / Lieu Unique 
  
-Avril 2017 : Metz / Fragment 
  
-Mai 2017 : Besançon / Tonie Sonie 
  
-Septembre 2017 : La Rocheservière / Site Saint-Sauveur 
  
-====== NotesSons Acousmographies ======+====== NOTESSONS ACOUSMOGRAPHIES ====== 
 + 
  
  
 ===== Résidence Lolab - Juin 2016 ===== ===== Résidence Lolab - Juin 2016 =====
 +
  
  
 ===== Notes ===== ===== Notes =====
 +
  
  
 ==== Main droite - Roue (prototype) ==== ==== Main droite - Roue (prototype) ====
 +
  
  
Ligne 189: Ligne 254:
 ==== Main gauche ==== ==== Main gauche ====
  
-1. Pizzicati+**1. Pizzicati**
  
-2. Déplacement sur les cordes du haut de la touche jusqu'au chevalet+**2. Déplacement sur les cordes du haut de la touche jusqu'au chevalet**
  
-3. Pression des 4 doigts sur les cordes+**3. Pression des 4 doigts sur les cordes**
  
 1 (effleurement pour faire sortir les harmoniques) 1 (effleurement pour faire sortir les harmoniques)
Ligne 199: Ligne 264:
 3 (forte pour faire sortir une note) 3 (forte pour faire sortir une note)
  
-4. Fréquence des pressions des doigts sur la corde+**4. Fréquence des pressions des doigts sur la corde**
  
 1 (basse) 1 (basse)
Ligne 205: Ligne 270:
 3 (haute) 3 (haute)
  
-5. Effets sonores+**5. Effets sonores**
  
 "mouettes" "mouettes"
Ligne 214: Ligne 279:
 ===== Sons ===== ===== Sons =====
  
 +https://soundcloud.com/soiziclebrat/dfw-20160623-ter
  
-===== Acousmographies ===== 
  
 +===== Acousmographies =====
  
 +https://snhack.org/doku.php?ns=projets%3Adouble%3A&image=projets%3Adouble%3Adfw_partition_20160623_ter.pdf&do=media
projets/double/soizic.1466694414.txt.gz · Dernière modification : 2024/02/09 16:55 (modification externe)