Je vais à l’essentiel : Unreal Engine, à la base un moteur de jeu vidéo, sert très bien la scène quand on veut réduire la facture de décors, prototyper une scénographie en amont, projeter des univers changeants en temps réel, ou synchroniser vidéo, lumière et son avec précision. La croyance fréquente, c’est que c’est « trop technique » ou « réservé aux grosses productions ». Sur un plateau français standard, avec un PC bien choisi et une équipe curieuse, on peut déjà faire beaucoup : je parle de fonds mouvants qui réagissent à la lumière, de volumes virtuels qui dialoguent avec les comédiens, de rythmes visuels calés au quart de seconde sur une conduite son.
La complexité n’est pas là où on l’imagine : le vrai sujet, c’est d’organiser un pipeline simple (qui fait quoi, à quel moment) et de caler les interfaces entre Unreal et la régie (lumière/son/vidéo). Les gains sont concrets : moins de menuiserie lourde à stocker, plus de souplesse pendant les répétitions, une meilleure maîtrise du tempo visuel.
Dans les pages qui suivent, je vous montr e pourquoi Unreal vaut le coup au théâtre, de quel matériel vous avez réellement besoin, comment raccorder Unreal à vos consoles (MA/ETC) et aux systèmes vidéo (disguise), ce qu’il faut savoir sur le tracking (Blacktrax) et le timecode, où se cachent les coûts, et enfin comment choisir dans la vraie vie selon votre plateau, votre équipe et vos dates de tournée.
Pourquoi Unreal au théâtre (et pas seulement pour « faire joli »)
Pour un metteur en scène, l’intérêt se lit en trois lignes : d’abord, prototyper en amont ; ensuite, remplacer ou compléter un décor par des espaces virtuels qui changent à vue ; enfin, orchestrer l’image avec la même finesse que la lumière et le son. En répétition, je peux tester un cadrage, une vitesse de mouvement, un changement d’ambiance en direct ; la discussion artistique avance plus vite, les arbitrages coût/effet sont plus clairs, et la scénographie gagne en « respiration » puisqu’elle n’est plus figée dans une seule version.
Matériel & performances PC
Côté ordinateur, j’ai de bons résultats en visant un processeur 12 cœurs ou plus, 32 à 64 Go de RAM, et une carte graphique type NVIDIA RTX 4070/4080 pour du 1080p ou du 4K raisonnable. En pratique, je cherche 50–60 images/seconde en répétition pour garder la fluidité ; si je tombe sous les 30, la direction d’acteur en souffre. Pour le stockage, 1 To SSD NVMe évite les temps d’attente quand on charge des scènes lourdes. Hypothèse réaliste de budget PC « créa + diffusion » : 2 500 à 4 500 € selon la carte graphique et les écrans.
Pour la sortie vers la salle, deux chemins dominent : la vidéoprojection (un ou plusieurs projecteurs, focale adaptée, surface peinte ou toile) et les écrans LED (murs ou éléments mobiles). Unreal sort en HDMI/DisplayPort vers une carte de capture ou directement vers un serveur média (par exemple disguise) si vous préférez centraliser la diffusion. Le mot important à retenir ici, c’est latence : plus elle est faible, plus les comédiens « sentent » bien l’image.
Un workflow simple qui tient en répétition
Je garde trois étapes : préparer, itérer, sécuriser. Préparer, c’est lister les tableaux (les grandes ambiances de la pièce), créer dans Unreal une scène par tableau, et prévoir un plan B (fond fixe) par sécurité. Itérer, c’est construire des versions légères au début, tester l’échelle et les mouvements avec la troupe, puis monter en qualité à mesure que la mise en place se fige. Sécuriser, enfin, c’est geler une version « spectacle » quelques jours avant la première, et documenter qui déclenche quoi pendant le run (Unreal, son, lumière).
Si vous entendez parler de nDisplay, retenez simplement que c’est la fonctionnalité qui synchronise plusieurs écrans ou projecteurs à partir d’Unreal pour faire un grand décor vidéo cohérent. Pour un plateau moyen, j’ai souvent un seul PC qui suffit ; nDisplay devient utile quand on passe à plusieurs surfaces ou à un grand mur LED.
Synchroniser lumière, son et vidéo (MA/ETC, timecode, DMX, OSC)
L’idée est de piloter l’image comme un projecteur de lumière : vous pouvez déclencher des changements d’Unreal depuis une console MA (grandMA) ou ETC grâce à des protocoles réseau conçus pour la scène.
- DMX : c’est le « langage standard » des projecteurs ; envoyé sur réseau (Art-Net ou sACN), il peut aussi contrôler des paramètres dans Unreal (couleur d’un ciel, intensité d’un effet) via des plug-ins.
- OSC : c’est Open Sound Control, un protocole simple pour envoyer des commandes (par exemple « passe au tableau 5 »).
- Timecode : c’est l’horloge partagée qui donne à tous la même minute et la même seconde ; pratique pour caler son, lumière et vidéo sur une bande son maître.
- Avec disguise comme serveur média, Unreal devient une source ou un moteur intégré selon l’architecture ; l’intérêt pratique, c’est de centraliser les déclenchements tout en gardant la créativité temps réel.
Tracking & scénographie vivante (Blacktrax et alternatives)
Le tracking, c’est la détection en temps réel de la position d’un comédien ou d’un objet pour que l’image réagisse (un halo qui suit, un décor qui s’ouvre sur son passage). Blacktrax est une solution clé en main connue dans le spectacle : capteurs + base qui envoient la position à votre système. Selon les budgets, on voit aussi du tracking caméra (la position de la caméra virtuelle sert à déformer l’image) ou des solutions vision plus économiques pour des effets simples. Le point d’attention, c’est la robustesse : en salle, je choisis peu d’effets mais fiables plutôt que dix tours de magie fragiles.
Diffusion : vidéoprojection, LED et surfaces
En projection, je soigne trois choses : luminosité (assez de lumens pour tenir face à la face lumière), angle (éviter l’ombre portée d’un comédien), surface (toile tendue, peinture adaptée, tulle type hologauze si je veux mêler transparence et image). Les LED apportent la puissance et les noirs profonds ; en échange, il faut gérer le pixel pitch (densité des LED) et le poids si l’élément est mobile. Unreal s’en moque : il vous livrera l’image, à condition d’anticiper la définition et le mapping (la correspondance entre l’image et la surface réelle).
Budget & ROI : où l’on gagne, où l’on dépense
On économise surtout sur la construction (moins de matière, moins de transport et de stockage) et sur le temps d’itération (on change de décor en quelques clics). On dépense sur le PC graphique, la duplication des sorties (cartes, convertisseurs), les licences éventuelles (serveur média), et potentiellement le tracking. À la louche, un setup de base (PC + interfaces + câbles + un projo existant) se tient entre 3 000 et 6 000 €, quand un mur LED ou un tracking complet fait vite grimper la note. Le bon arbitrage, c’est de réserver le haut de gamme aux effets centraux du spectacle, et de traiter le reste avec des images légères et des transitions sobres.
Limites & risques à connaître
Le premier risque, c’est l’excès de promesses visuelles : si l’effet distrait le jeu, on perd. Le second, c’est la dépendance au débit machine : si la scène rame, tout se voit. Le troisième, c’est l’exploitation en tournée : chaque salle change la lumière ambiante, la distance de projection, la hauteur sous gril ; je prévois donc deux niveaux de qualité (un « plein effet » et un « allégé ») et un décor de secours.
Références de mise en œuvre (typologies, sans name-dropping)
En théâtre parlé, j’ai vu des paysages minimalistes qui vivent par la lumière et la brume, avec Unreal pour les horizons et les rythmes. En jeune public, des illustrations animées réagissent à la voix ou à un déplacement. En opéra, des architectures virtuelles changent à vue, calées au timecode pour suivre l’orchestre. En danse, un sol réactif et des volumes lumineux pilotés en DMX transforment l’espace sans saturer le regard.
Tableau de synthèse
Option / Contexte | Avantage principal | Limites à connaître |
PC unique + projection 1080p | Mise en place rapide, budget contenu, bonne souplesse en répétition | Luminosité limitée, ombres portées à gérer, mapping simple mais précis |
PC + serveur média (disguise) | Centralisation des déclenchements, fiabilité d’exploitation | Coût logiciel, formation opérateur, intégration initiale |
nDisplay + multi-surfaces | Immersion large, cohérence d’images sur plusieurs écrans | Complexité réseau, besoin d’anticipation scénographique |
LED murale | Contraste fort, pas d’ombre portée, rendu net | Coût et poids, pixel pitch à choisir, réflexion parasite |
Tracking (Blacktrax ou équiv.) | Interactions vivantes, effets « qui suivent » les acteurs | Budget capteurs, robustesse en exploitation, réglages réguliers |
Comment choisir dans la vraie vie
Si vous débutez et que le décor vidéo n’est pas le cœur de la mise en scène, je reste sur un PC costaud, une projection bien placée, des tableaux sobres dans Unreal, et un déclenchement OSC depuis régie. Si la vidéo est centrale et que vous avez une équipe régie solide, je passe par un serveur média (disguise) pour sécuriser l’exploitation et ouvrir la porte à plusieurs surfaces. Si vous tournez beaucoup en des salles variées, je privilégie des effets tolérants (peu sensibles à la luminosité ambiante), des presets pour deux ou trois configurations types, et un plan B non vidéo. Si le suivi d’acteur est décisif, je teste tôt le tracking sur votre plateau (c’est là que les aléas apparaissent) et je limite le nombre d’effets dépendants du suivi. Enfin, si le budget PC est serré, je vise 1080p fluide plutôt que 4K instable ; le public pardonne la définition, pas la saccade.
Trois idées à garder pour conclure
Trois idées à garder : Unreal est un outil de mise en scène, pas un but en soi ; la valeur vient surtout de la vitesse d’itération en répétition et de la musicalité des changements visuels. L’arbitrage clé oppose performance théorique (le dernier GPU, la 4K partout) à utilité scénique (fluidité, lisibilité, fiabilité). Si l’enjeu budgétaire est important ou si vous partez sur multi-surfaces / tracking, une étude personnalisée avec la régie et la direction technique de la salle vous fera gagner du temps et évitera des mauvaises surprises.