ART STORIES AVEC RED EYE 360

Notre partenaire Red Eye 360, acteur majeur de la prestation VR en cinéma et broadcast, nous raconte la réalisation d’ART STORIES, dont certains épisodes ont été proposés en 360° par ARTE.

Rencontre avec Alexandre Marquis et Pierre Corret (Red Eye 360) pour évoquer la réalisation de ces épisodes qui proposent une « expérience immersive au cœur de l’histoire de l’art » dans les fresques rupestres de la grotte Chauvet, dans la cathédrale d’Aix la Chapelle, ainsi qu’au Palais des Festivals de Bayreuth, la salle d’Opéra conçue par Richard Wagner.

Comment sont nés les épisodes d’Art Stories en 360 ?

RED EYE 360 : Arte a souvent fait preuve de beaucoup d’intérêt pour les programmes innovants, et particulièrement la VR ces derniers temps. Ils ont développé leur propre application, Arte360, avec un player dédié à la VR.

Il est intéressant de voir qu’Arte a souhaité adapter une série documentaire qui était au départ un programme classique – en 360 selon les lieux visités.

Quels enjeux techniques représentait le projet Art Stories pour votre équipe ?

Le premier épisode que nous tournions était dans la grotte Chauvet. C’était donc des conditions complexes, propres à ce type de lieu, avec plusieurs contraintes : éclairer la journaliste suffisamment car il y avait une faible luminosité, peu d’espace, et de la machinerie à utiliser car on savait qu’il s’agissait presque entièrement de plans en mouvement…

On a donc utilisé un système de buggy radiocommandé, le modèle MANTIS, un système similaire à une Dolly, qui, une fois calibré, stabilise le mouvement, grâce à un système de moteurs. Le principe même de la série était de suivre une journaliste en marche pendant la découverte d’un lieu. A l’exception du drone, nous étions un peu frustrés de ne pas pouvoir faire de mouvements, de travelling, avec la 360. Alors, quand PhotoCineRent nous a parlé de ce tout nouvel outil, c’était inespéré. Ce système venait d’arriver sur le marché. On l’a pour ainsi dire testé en conditions réelles sur le plateau. Et il s’est révélé très utile à plusieurs égards.

Dans l’opéra de Bayreuth, on a eu recours à un drone en intérieur, ce qui n’est pas courant. L’idée était de rendre visible la grandeur de cette scène en prenant de la hauteur. On avait testé notre caméra sur un drone en extérieur et c’était une première en intérieur. Notre droniste avait déjà fait des captations en intérieur mais jamais en 360.

De quels postes était constituée l’équipe sur le plateau ?

L’équipe permanente était constituée de 3 personnes : un chef opérateur, un réalisateur et un assistant opérateur. Elle était complétée selon les conditions de tournage par un opérateur buggy et deux dronistes. Ce sont les mêmes métiers que sur un tournage classique, mais qui doivent composer avec les contraintes techniques liées à la 360.

Comment s’est déroulée la préparation du tournage avec l’équipe ?

En l’occurrence, le réalisateur qui avait déjà travaillé avec ARTE n’avait encore jamais fait de 360. On a donc fait avec lui une journée de préparation, pour lui présenter les possibilités et problématiques spécifiques, sans pour autant freiner sa créativité. Mais en lui suggérant une narration un peu différente : la caméra ne peut plus être un point de vue extérieur, mais bien celui de la personne qui visite un lieu. La 360 implique nécessairement un point de vue très subjectif.

Pour le chef opérateur également, les possibilités d’éclairage étaient très limitées. On lui a expliqué en amont où il pouvait envisager de mettre la lumière dans cette configuration 360 où tout le décor est visible à l’image : à lui de jouer avec ça. Il a pu cacher les projecteurs sous la passerelle où marchait la journaliste, et il avait imaginé lui faire tenir une lanterne au niveau du visage, mais il s’est aperçu que ce n’était pas une source suffisante. Il a alors eu l’idée d’utiliser le pied du Buggy pour y mettre un système d’éclairage en y fixant des panels LED, toujours pour éclairer la journaliste dont on suivait le parcours.

Il a renouvelé ce système d’éclairage fixé sur le Buggy dans l’Opéra de Bayreuth, tout en cachant des projecteurs dans le décor.

Comment se sont déroulées les étapes de post-production ?

La post-production était gérée directement par Sepia, la production du programme. Nous avons simplement été un support auprès d’eux. La post-production se déroulait sur Nuke, qui a sorti un plug-in pour faire de la 360. Pour que le logiciel calcule la déformation optique, il est obligé de connaître les informations sur le capteur, l’optique utilisée, l’ouverture du diaph, et beaucoup d’autres paramètres. Renseigner ces infos à la main prend beaucoup de temps sur ce genre de production. Il est beaucoup plus simple et rapide d’utiliser des presets de la caméra pour fabriquer le pré-stitch, le premier montage de la sphère 360, qui donne déjà une indication sur la scène, le résultat final.

On gagne donc beaucoup de temps lorsqu’on a toutes les infos de la caméra utilisée. On leur donnait ces presets qu’on avait mis au point nous-même, car c’est une caméra qu’on avait fabriquée.

En quoi ce type de tournage est-il une valeur ajoutée pour le programme du stage, l’apprentissage de la VR 360 pour les stagiaires qui suivront la formation ?

C’est toujours une expérience intéressante, car il s’agissait d’utiliser des systèmes de prise de vues dont certains étaient utilisés pour la première fois. Les premières caméras qui étaient utilisées sont celles que nous avions développées à l’époque de la Nouvelle Star, et aujourd’hui aucun système n’équivaut à celui que nous avons développé.

Ce qui fait défaut avec la 360, c’est souvent les capteurs : avoir des capteurs qui prennent bien la lumière. Dans les endroits sombres, à moins d’utiliser une ARRI, une RED, mais qui sont impossibles à monter sur un RIG, on doit s’adapter avec des caméras plus petites mais toutefois équipées d’un bon capteur. Notre système permettait d’enregistrer en RAW, avec des caméras beaucoup plus petites que les caméras classiques et d’obtenir de bons résultats sur les faibles lumières.

Lorsqu’il s’est agi d’alléger encore le dispositif, par exemple pour se fixer sur un drone léger, voir les prises en direct en 360 sur le plateau, on a aussi pu trouver des solutions plus adaptées. C’est ce niveau d’expertise, que nous pouvons proposer en formation, et que les stagiaires viennent chercher.

Formation

Tourner et produire du contenu en VR 360

(en partenariat avec RED EYE 360)

du 26 au 30/03/18

Date limite de demande de prise en charge auprès de l’AFDAS le 9 mars.