Intelligence artificielle et danse : ce que l’IA change vraiment dans l’écriture du mouvement

IA et danse : panorama d’outils (MoCap, vision, GANs, diffusion, TouchDesigner, Notch, Runway) et méthodes concrètes pour écrire le mouvement sans remplacer l’humain.

Intelligence artificielle et danse : ce que l’IA change vraiment dans l’écriture du mouvement

On a souvent entendu : « l’IA va chorégraphier à notre place ». La réalité est plus subtile — et plus intéressante. L’intelligence artificielle ne fabrique pas magiquement des œuvres ; elle propose des manières inédites de percevoir, d’écrire et de transmettre le mouvement.

Dans un contexte où les scènes demandent des formes singulières, où les studios se dotent d’outils numériques, et où la recherche-création rebat les cartes, l’IA devient un partenaire de jeu : elle capte, projette, perturbe, accélère des idées, et parfois révèle des gestes invisibles.

Dans cet article, je clarifie les familles d’outils (motion capture, vision par ordinateur, modèles génératifs type GANs et diffusion), je montre comment les intégrer dans un processus chorégraphique, et je pointe les points d’attention (droits du corps, jeux de données, coûts, sécurité en scène).

Vous repartirez avec des repères concrets pour imaginer vos prochaines écritures du mouvement — sans céder ni au gadget technophile, ni à la peur du remplacement.

Création assistée par IA : trois usages qui changent la donne

Écriture : générer des variations à partir d’un motif (ex. “déformer” une phrase, explorer des vitesses, densités, orientations). Les modèles génératifs (GANs, diffusion) produisent des séquences vidéo ou des trajectoires squelettiques qui stimulent l’invention, non un “produit fini”.

Interprétation : l’IA comme partenaire scénique. Un système de vision (MoveNet, OpenPose) “écoute” le corps et répond en lumière, son, vidéo, ou en avatars. Le danseur compose avec un environnement réactif.

Transmission : annotation fine du geste, banques de motifs, rétroaction pédagogique (angles, appuis, dynamique). Ici l’IA aide à documenter et transmettre les écritures.

Panorama des outils et ce qu’ils permettent

  • Motion Capture (optique/inertielle) : capture précise des articulations pour créer des doubles numériques, nourrir des avatars, “geler” un style.
  • Vision par ordinateur (MoveNet, OpenPose) : suivi squelettique en temps réel via caméra. Avantage : pas de combinaison. Limite : précision variable selon lumière/occlusions.
  • Modèles génératifs — GANs & diffusion : à partir d’images/vidéos, ils synthétisent des variations de mouvement ou des textures visuelles. Très utiles pour storyboard et visual research.
  • Systèmes temps réel — TouchDesigner, Notch : patchs visuels réactifs à la danse (caméra, capteurs). Parfaits pour scénographies interactives.
  • Plateformes créatives — Runway, outils “texte→vidéo” : exploration rapide d’esthétiques pour maquettes, teasers, dramaturgies d’images.
  • Moteurs d’analyse : repérer répétitions, intensités, contrastes pour éditer une partition.
  • Idée clé : plus le dispositif est “sensible” à la présence, plus il devient partenaire dramaturgique — et plus la rigueur d’improvisation importe.

Écritures scéniques : du studio au plateau

  • Studio : je compose des motifs, l’IA propose des versions “improbables” (étirements, miroitements, bouclages). Je garde, j’altère, je contredis.
  • Plateau : l’IA “répond” au geste (lumière, image, son). On scénographie l’écoute : zones de déclenchement, temps de latence, seuils de confiance.
  • Musées / in situ : installations participatives où les visiteurs deviennent co-interprètes via caméras et écrans, prolongeant l’œuvre en dehors du théâtre.

Enjeux juridiques et éthiques (à anticiper dès la maquette)

  • Données de corps : qui possède la capture d’un interprète ? Définir cession, durée, réutilisations et anonymisation éventuelle.
  • Jeux de données (datasets) : privilégier des sources licites et consenties. Éviter d’entraîner un modèle sur des archives sans droits clairs.
  • Droits voisins / image : en vidéo générée, vérifier droits sur visages, costumes, décors.
  • Sécurité : lumière réactive et surfaces vidéo : tester éblouissement, repères au sol, répétitions avec latences réelles.
  • Crédits : créditer les outils comme on crédite un logiciel scénique ou un dispositif.

Budgets & production (ordres de grandeur indicatifs)

Hypothèse (milieu FR, création scénique) :

  • Exploration : caméra + ordi portable + logiciels (TouchDesigner/Notch/Runway) → de quelques centaines à quelques milliers d’euros selon licences et cartes graphiques.
  • MoCap : location ponctuelle ou partenariat avec un studio ; achat de systèmes inertiels = investissement significatif, amortissable sur plusieurs projets.
  • Régie : prévoir temps de développement (patchs, entraînement), répétitions techniques, assistance data/vidéo. Ce sont souvent les vrais postes budgétaires.

Tableau de synthèse

Option / Contexte

Avantage principal

Limites à connaître

Motion Capture (optique/inertielle)

Précision, avatars, archivage du style

Coût/temps, calibration, costumes/capteurs

Vision temps réel (MoveNet, OpenPose)

Légèreté, sans combinaison, interactivité

Sensible à la lumière/occlusions, latence variable

Génératifs (GANs, diffusion, Runway)

Variations visuelles rapides, recherche d’esthétiques

Contrôle fin limité, droits des données d’entraînement

TouchDesigner / Notch

Scénographie réactive robuste en live

Nécessite programmation et régie vidéo solide

Texte→mouvement / vidéo

Idéation instantanée, pitchs, teasers

Qualité inégale, risque de clichés visuels

Analyse de mouvement

Pédagogie, notation, feedback qualitatif

Réduit parfois la complexité sensible du geste

Comment choisir dans la vraie vie

  • Si votre enjeu est l’écriture : commencez par un petit corpus (vos propres vidéos), testez un modèle de diffusion/Runway pour générer des variations visuelles, puis traduisez en corps ce qui “vaut” dramatiquement.
  • Si votre enjeu est l’interactivité plateau : privilégiez vision temps réel + TouchDesigner/Notch. Travaillez la lumière et la lisibilité des déclenchements (zones au sol, “règles” lisibles pour le public).
  • Si vous visez l’avatar : optez pour MoCap (session courte en studio + retargeting). Idéal pour duos danseur/ombre numérique ou films de danse.
  • Pédagogie / transmission : utilisez analyse de mouvement pour archiver des motifs et créer des partitions partageables.
  • Cas particuliers :
    • Plateau sombre → privilégier capteurs inertiels ou sources IR.
    • Grande jauge → prévoir écrans/vidéo forte luminosité et tests à distance.
    • Sites patrimoniaux / musées → dispositifs autonomes, robustes, avec modes “dégradés” si la caméra perd la personne.
    • Contrainte de droits → partir d’un dataset maison (captations consenties), documenter les autorisations.

Pourquoi l’IA reste complémentaire — et ne remplace pas la danse

La danse n’est pas qu’un tracé d’articulations : c’est une présence, une écoute, une adresse au public, un rapport au risque et au temps. L’IA excelle à transformer des signaux et multiplier des variations ; elle n’a ni fatigue ni peur, mais elle n’a pas de rituel, pas de mémoire corporelle vécue.

En la traitant comme partenaire d’écriture (et non “metteur en scène automatique”), on ouvre un champ d’invention sans sacrifier l’essence du vivant : l’attention partagée.

Mini check-list pour passer à l’acte

  • Définir la fonction dramaturgique du système (écrire, répondre, archiver).
  • Lister les contraintes de plateau (lumière, réseau, latence).
  • Clarifier droits et consentements sur les données de corps.
  • Prévoir temps de recherche en studio + répétitions techniques.
  • Documenter et créditer les outils (Motion Capture, MoveNet, OpenPose, GANs, diffusion, Notch, TouchDesigner, Runway).

A retenir !!!

Ce que l’IA apporte à la danse, c’est une boîte de vitesses supplémentaire : elle accélère l’esquisse, révèle des combinaisons, fabrique des partenaires lumineux ou sonores, et prolonge l’écriture dans l’espace scénique. L’arbitrage, pour nous chorégraphes, n’est pas “IA vs humain”, mais théorie vs utilité scénique : quelle part d’automatisation sert la clarté de l’intention et la qualité de présence ?

Dès que l’enjeu artistique et financier devient important (tournée, commande, installation muséale), une étude personnalisée avec régie vidéo, data et juridique évite les impasses et sécurise la création.

Quelques exemples

1) Wayne McGregor — Living Archive: An AI Performance Experiment (2019)

  • Dispositif : un outil chorégraphique entraîné sur 25 ans d’archives vidéo de la compagnie. L’IA propose des pistes de mouvement que les danseur·se·s explorent et transforment.
  • Outils clés : collaboration avec le Google Arts & Culture Lab ; expérimentation publique interactive.
  • À retenir pour un·e chorégraphe : l’IA sert d’“amplificateur de style” — un générateur de variations nourri par votre propre langage, pas un chorégraphe de remplacement.

2) Cie Gilles Jobin — Cosmogony (2021–)

  • Dispositif : performance 100 % numérique en temps réel : trois danseurs captés en motion capture à Genève apparaissent comme avatars, projetés en direct à distance (plateaux, festivals, espaces publics).
  • Outils clés : MoCap temps réel, pipeline de streaming, retargeting d’avatars.
  • À retenir : la MoCap live ouvre la tournée “sans plateau” et pose des questions dramaturgiques nouvelles (présence vs avatar, adresse au public).

3) Blanca Li — Le Bal de Paris (Lion de la meilleure expérience VR, 2021)

  • Dispositif : expérience participative en réalité virtuelle, corps entier, mêlant danseur·se·s et public équipé.
  • Outils clés : VR immersive multi-participant·e·s (pas spécifiquement IA, mais un modèle fort de scénographie interactive avec corps engagés).
  • À retenir : pour les pièces “in situ” ou muséales, penser chorégraphie comme parcours et protocoles d’interaction, pas seulement comme phrase dansée.

4) Interactivité plateau — vision par ordinateur + moteur temps réel

  • Dispositif type : caméra → détection du squelette → paramètres envoyés vers visuels/lumières en temps réel (DMX/Art-Net/MIDI/OSC).
  • Outils clés : MoveNet (détection 17 points, variantes Lightning/Thunder), OpenPose (corps/visage/mains/pieds), moteur temps réel type Notch (tracking, optical flow, contrôle lumière intégré).
  • À retenir : la lisibilité scénique dépend autant de la latence et de la lumière que de l’algorithme ; prévoir des “règles de jeu” perceptibles par le public.

Bibliographie & ressources (sélection courte)

Études de cas / inspirations

  • Living Archive: Creating Choreography with AI — Studio Wayne McGregor × Google Arts & Culture (présentation + vidéo).
  • Living Archive — expérimentation interactive (Experiments with Google).
  • Cie Gilles JobinCosmogony, fiche de création et description du pipeline live.
  • Blanca LiLe Bal de Paris (Lion VR, 2021) — présentation Biennale de Venise + page de la compagnie (retours d’expérience).

Outils & docs techniques (pour vulgarisation “avec lexique complet”)

  • MoveNet — tutoriel officiel TensorFlow Hub (variants Lightning/Thunder, usages temps réel).
  • OpenPose — article fondateur (CVPR 2017) + arXiv 2018, et dépôt GitHub (corps, mains, visage, pieds).
  • Notch — interactivité scène (tracking, optical flow, DMX/Art-Net/MIDI/OSC).

Tendance “génératifs vidéo” (pré-prod, teasers, dramaturgie d’images)

  • Runway — évolutions récentes des modèles vidéo (contexte d’usage en arts visuels et spectacle vivant).
  • Écosystèmes serveurs média (intégration Notch, rendu temps réel pour scènes immersives)

Vous aimerez également