A la découverte des nouveaux formats de contenus visuels

On pourrait croire, à voir le temps qui s’est écoulé entre mon précédent article et celui-ci, que je n’ai pas fait grand chose sur ce blog ces derniers mois. Et pourtant, je n’ai pas chômé ! Simplement, ça ne se passait pas au niveau des articles, mais dans la rubrique Inventaires. Je me suis effectivement lancé dans un projet un peu fou (en tous cas pour moi) : décrire et raconter comment évoluent les formats de contenus visuels ! Mon idée initiale était la suivante : Poussé par l’innovation technologique, le numérique conduit à une incroyable diversification des formats de contenus visuels : vidéo 360°, photographie 2.0, micro-vidéo, photographie éphémère, vidéo sociale en live, photographie sphérique, etc. De nombreux blogs et sites web relatent au quotidien les nouveautés qui émergent dans ce domaine. Mais je n’en connais pas qui organisent tout cela dans une vision cohérente et la plus globale possible. D’où l’idée de ces pages intitulées Les formats de contenus visuels.

Elles sont organisées pour l’instant en 4 rubriques qui correspondent à 4 grandes catégories de formats de contenus :

  • Les photographies
  • Les vidéos
  • Au croisement de la photo et de la vidéo
  • Les images graphiques

On constate que 3 de ces catégories sont des formats qui existaient avant le numérique. Ils définissent en effet des modes de représentation visuelle qui persistent encore aujourd’hui. Mais le numérique les transforme de l’intérieur, d’où le nombre de formats différents auxquels chacun d’eux donne lieu. Il les transforme aussi de l’extérieur, brouillant parfois les frontières entre eux. D’où la 4ème catégorie, qui rassemble les expressions de la mixité entre la photographie et la vidéo.

L’idée de ces pages, c’est de décrire les nouveaux formats qui émergent, ainsi que l’incroyable créativité dont font preuve les marques, les artistes ou chacun de ceux qui s’en emparent, au service d’une multitude d’usages, classiques renouvelés ou inédits.

A mon humble niveau, je me dis que celà peut aider à inspirer des créateurs. Je connais effectivement peu de sites qui parlent de ces contenus sous le prisme du format visuel. Et pourtant, ce prisme révèle selon moi un vrai réservoir de créativité !

Le but de ces pages, c’est aussi de décrire les différents types d’expérience utilisateur auxquels ces différents formats donnent lieu. Et plus tard, si j’ai le temps, ou au gré des formats, d’évoquer la question des best practices en matière de design de ces formats.

Si ces formats évoluent tant aujourd’hui, c’est en raison de l’innovation technologique qui les porte. Qu’elle provienne des GAFA ou d’autres entreprises technologiques, l’innovation technologique est telle aujourd’hui que les créateurs croulent sous les nouveaux formats et les possibilités qui s’offrent à eux. Ils doivent plutôt gérer le trop plein que le trop peu. Mon objectif, à travers ces pages, est d’ailleurs aussi de mettre en avant les créateurs qui s’emparent de ces nouveaux formats, qu’ils s’agissent d’artistes, de marques ou d’anonymes talentueux.

Enfin, dernier point : en parallèle de ces pages sur les formats de contenus, j’ai aussi l’intention de rédiger des pages sur quelques technologies clés, qui ne sont pas tant des formats de contenus, selon moi, que des technologies de dispositifs visuels dans lesquels les formats de contenus viennent « se loger ». Ces technologies, ce sont la réalité virtuelle, la réalité augmentée, les projections d’images, les écrans digitaux, les hologrammes…

Voilà, je terminerai juste en disant que le principe même de ces pages est qu’elles sont sans cesse en évolution. C’est un work in progress, une sorte de wiki individuel. D’ailleurs, nombre de pages déjà prévues et annoncées dans le sommaire ne sont pas encore publiées. ça va venir… Je précise également que je suis loin d’être un spécialiste de chacun de ces formats. J’espère donc ne pas faire trop d’erreurs. Je fais de mon mieux pour que ce ne soit pas le cas, mais n’hésitez pas à me faire signe si vous en trouvez une !!!

Et maintenant, il ne me reste plus qu’à vous rappeler le lien vers la page d’accueil de cette rubrique : Les formats de contenus visuels. Bonne lecture !

 

Publicités

Grand angle sur les coulisses des marques… en vidéo 360°

J’ai déjà consacré plusieurs articles de ce blog à la manière dont les marques peuvent utiliser la vidéo pour présenter leurs coulisses. Vous pouvez notamment vous référer à la série “Dans les coulisses des entreprises : visites privées au temps du digital”. L’un des articles de cette série était consacré à l’usage de la vidéo par les marques de luxe. Un autre à l’usage de la vidéo dans le design des sites web. Et plus récemment, je me suis intéressé à l’usage des vidéos 360° par les marques pour nous faire découvrir leurs coulisses. Je citais notamment le dispositif Dior Eyes. Mais je n’avais pas d’autres exemples sous la main. Or, j’ai découvert depuis que d’autres marques de luxe avaient déjà utilisé ce procédé, en particulier Louis Vuiton et Van Cleef & Arpels. Je vous emmènerai ensuite à Sidney, pour y découvrir l’université de la ville en vidéo 360°.

Louis Vuitton : des défilés aux ateliers

Commençons tout d’abord par le défilé de la collection Automne-Hiver 2010 de Louis Vuitton. Lors de cet événement, l’agence Ogilvy One a photographié les mannequins à 360° avec une multitude d’appareils photos disposés en cercle, qui se déclenchaient simultanément. 8 heures après le défilé, les vidéos montées à partir des photos étaient visibles sur la page Facebook de la marque et des animations étaient accessibles sur son application mobile. Les internautes pouvaient sélectionner les mannequins, lancer les vidéos ou les animations, et ainsi visionner les modèles sous tous les angles.

Dans ce cas précis, il ne s’agissait donc pas de vidéos panoramiques 360° comme celles dont je parle dans mes récents articles et qui sont utilisées dans les casques de réalité virtuelle. Les vidéos panoramiques placent la caméra ― et donc ensuite le spectateur― au centre d’une scène qui se déroule autour d’eux. Mais dans le cas présent, les prises de vue se font tout autour des mannequins, qui deviennent visibles à 360°, exactement comme on photographie certains produits pour permettre leur visualisation à 360° dans un site e-commerce ou une oeuvre d’art sur le site web d’un musée. On parle ici d’un shooting photo en mode “spin”. Il peut ensuite être diffusé sous forme de vidéo ou d’animation interactive. Dans ce dispositif, les mannequins restent statiques car ils n’ont pas été filmés mais photographiés. La vidéo ci-dessous explique très bien le dispositif.

 

Après cet essai initial, le premier véritable usage de vidéos panoramiques 360° par Louis Vuitton a eu lieu dès l’année suivante, lors de la Fashion Week 2011. Le défilé, ainsi que plusieurs moments clés de l’événement (les coulisses, la préparation, etc.), ont été filmés en vidéo immersive 360° pour être ensuite consultables pendant plusieurs semaines sur le site dédié à l’événement. Bien que le site soit aujourd’hui fermé, vous pouvez vous faire une petite idée de ce que ça donnait à travers les photos ci-dessous.

 

Pour son deuxième usage de la vidéo 360°, Louis Vuitton a changé de registre puisqu’elle a utilisé cette technologie dans l’une des séquences de son mini-site dédié à faire découvrir le siège social de la marque, en plein Paris. Le site a été mis en ligne au printemps 2015. La vidéo nous plonge, de manière très intime et discrète à la fois, au coeur d’un atelier où des personnels de la marque s’activent.

Plongeon au coeur d'un atelier de Louis Vuitton en vidéo 360°

Plongeon au coeur d’un atelier de Louis Vuitton en vidéo 360°

Dommage qu’il n’y ait qu’une seule vidéo 360° dans ce mini-site et qu’elle ne soit pas interactive, contrairement à ce qu’avait fait Van Cleef & Arpels quelques années plus tôt.

Van Cleef & Arpels

Car Louis Vuitton n’est effectivement pas le premier à utiliser ce procédé de la vidéo 360° pour présenter ses ateliers. Depuis 2012, en effet, le joaillier Van Cleef & Arpels propose sur son site web une Visite virtuelle des Ateliers (voir la rubrique de ce nom sur la page d’accueil du site web de la marque), qui plus est, plus élaborée que celle de Louis Vuitton ! Elle se compose en effet de plusieurs vidéos qui nous permettent de découvrir de manière séquencée plusieurs pièces des Ateliers correspondant chacune à un métier différent et à une étape du cycle de création d’un bijou. Autre élément de complexité : la vidéo est interactive et permet de visionner d’autres médias (textes, photos, vidéos). Le format de la vidéo, moins sphérique et de taille réduite, ainsi que sa structure très découpée, la rendent cependant moins immersive et contemplative que celle de Louis Vuitton, mais beaucoup plus pédagogique.

La Visite Virtuelle des Ateliers Van Cleef & Arpels

La Visite Virtuelle des Ateliers Van Cleef & Arpels

L’Université de Sidney

Quittons le domaine du luxe pour découvrir l’usage qui, selon moi, conjugue le meilleur des deux exemples précédents, à savoir l’aspect immersif de la vidéo de Louis Vuitton et l’aspect pédagogique et interactif de celle de Van Cleef & Arpels. Il s’agit du site web de l’Université de Sidney. Plusieurs vidéos 360° s’enchaînent en plein écran pour nous montrer différents lieux du campus. Et elles sont rendues interactives dès lors qu’on les met en mode “pause”. Comme le dit un responsable de l’agence digitale qui a réalisé le site web : « Choisir son université est un choix important qui va marquer le reste de votre vie. Nous avons voulu que l’expérience permette aux utilisateurs de prendre le temps de considérer les facteurs sociaux et culturels de ce choix, mais aussi délivrer de l’information factuelle de manière plus engageante (source). » Le résultat est un bel exemple de ce que peut donner ce type de dispositif.

L'université de Sidney s'offre à la découverte en vidéo 360° plein écran et interactive.

L’université de Sidney s’offre à la découverte en vidéo 360° plein écran et interactive.

De la vidéo 360° faite pour le web et non pour les casques de réalité virtuelle

Ces trois exemples montrent également que les marques expérimentent aujourd’hui la vidéo 360° pour un usage web sur ordinateur et non pas pour les casques de réalité virtuelle. Elles n’attendent pas que ces derniers soient plus répandus : elles se lancent dès aujourd’hui dans l’expérimentation de ce nouveau format pour le web seul.

Quand nos désirs d’ubiquité et de téléportation guident nos envies de technologie

Il est étonnant de constater à quel point nos désirs d’ubiquité et de téléportation ― ces deux pouvoirs dont la nature ne nous a pas doté (ou pas encore ?), et que nous rêvons donc comme des super-pouvoirs que nous attribuons à défaut à des super-héros de fiction ― nous hantent à travers nos envies de technologies et nos innovations en la matière.

Cet imaginaire est particulièrement visible dans la séduction qu’exercent (et l’effervescence que créent) depuis peu les technologies de téléprésence. On peut regrouper sous cette appellation les robots de téléprésence (dont j’ai déjà parlé à plusieurs reprises), les services de streaming vidéo en temps-réel (Periscope, Meerkat, etc.), certaines technologies de visioconference et bien-entendu les casques de réalité virtuelle, notamment lorsqu’ils permettent de visualiser des vidéos immersives à 360°, et encore plus lorsque ces vidéos sont diffusées en live.

Casques de réalité virtuelle + vidéo 360° en temps réel = téléportation ?

Une illustration flagrante en a été faite lors de la Facebook F8 Developers Conference qui s’est déroulée les 25 et 26 mars 2015 à San Francisco. Lors de cet événement, Mark Zuckerberg a annoncé que de nouvelles fonctionnalités de visionnage de vidéos 360° seraient bientôt disponibles dans Facebook et pour le casque Oculus Rift. Et pour faire la démonstration de ces services, la firme avait installé sur scène ce qu’elle a appelé une “cabine de téléportation” : dans cet espace, des spectateurs étaient invités à utiliser le casque de réalité virtuelle pour “visiter” à distance et en direct le siège social de Facebook. Ils visionnaient en réalité une vidéo 360° diffusée en direct (je ne sais pas qu’elle était la technologie de captation de la vidéo, mais je serais curieux de savoir). Ce que certains ont appelé une “live 360 VR video”.

La "station de téléportation" de la Conférence F8 de Facebook.

La « station de téléportation » de la Conférence F8 de Facebook.

Lors de cet événement, Facebook a donc réuni dans un même mouvement imaginaire les concepts d’ubiquité et de téléportation !

Et le public a suivi ! Dans cet article, le journaliste Dean Takahashi parle même de “l’application de téléportation” de Facebook. Il raconte son expérience : « La démo m’a projeté dans une vidéo en direct de la place centrale à l’intérieur du siège de Facebook à Menlo Park, en Californie. (…) C’était effectivement comme si j’avais été téléporté sur le campus. Les images de la vidéo étaient floues, mais elles étaient assez claires cependant pour que je sois en mesure de voir les gens et de reconnaître les visages « .

Identifier le lieu où l’on est projeté, ainsi que les personnes que l’on voit, tels sont deux éléments clés du sentiment de téléprésence.

Côté technologies, Dean Takahashi associe celle du live streaming video à celle de la réalité virtuelle comme produisant l’une et l’autre (ou encore mieux : lorsqu’elles sont associées) cet effet de téléportation : « Je n’irai pas jusqu’à dire que Zuckerberg a déjà rentabilisé son acquisition d’Oculus VR pour 2 milliards de dollars. Cette démo donne juste un aperçu de ce que pourra donner la réalité virtuelle ― ainsi que la vidéo en livestreaming – à l’avenir. C’est bien parti en tout cas. « 

Vidéo = illusion de téléportation  vs  Univers 3D = sensation d’immersion

La précision de Dean Takahashi est importante car les utilisateurs ne font pas autant référence à la téléportation lorsque les casques de réalité virtuelle les plongent dans un univers virtuel en 3D, tel que celui des jeux, plutôt que dans une représentation vidéo 360°.

La notion de téléportation implique le déplacement dans l’univers réel et non dans un univers imaginaire. La question n’est d’ailleurs pas tant (ou pas seulement) celle du réalisme de la représentation qui serait suposée plus forte dans la photo et la vidéo que dans les univers virtuels que celle de la représentation de lieux réels, qui existent réellement sur notre planète (ou pourquoi pas ailleurs ?) et surtout de la représentation de ce qui s’y passe en réalité, avec des gens réels qui se trouvent réellement sur place. Dans ce contexte, une vidéo à 360° est plus efficace pour restituer cela qu’une photo sphérique. Une vidéo 360° diffusée en live l’est encore plus. Et peut-être qu’une vidéo 360° live en relief le sera encore plus (Il en est question  + Voir un exemple ici) !

A l’inverse, lorsqu’ils sont plongés dans des univers 3D, j’ai l’impression que les utilisateurs parlent plutôt de sensation d’immersion. Et celle-ci est d’autant plus forte que le dispositif donne l’illusion que cet univers est non pas réel mais réaliste, et qu’il réagit en totale adéquation avec les actions de l’utilisateur. C’est ce qu’on peut lire dans cet article d’un blogueur testant le HTC Vive :

  • Adéquation des mouvements réels et des mouvements virtuels : « Ici, tout semble simple puisqu’il suffit de marcher dans une direction du monde réel pour que le personnage du monde virtuel suive cette direction. La sensation d’immersion est alors totale puisqu’on a l’impression d’être cette personne virtuelle. »
  • Réalisme de la représentation : « Les premières impressions (…) sont bonnes. Mais l’expérience n’était pas parfaite. (…) La définition de l’affichage empêche de se sentir en totale immersion lorsqu’on s’approche des objets puisque ceux-ci manquent de détails. (…) C’est problématique pour les jeux, mais également dans les applications professionnelles de réalité virtuelle qui se basent sur du photoréalisme pour donner l’impression d’immersion. Si la scène est dégradée, on aura du mal à se sentir vraiment présent. »

Finalement, on a les correspondances suivantes :

EnjeuAdhesionVR&video360

On retrouve cette distinction dans les témoignages des journalistes et blogueurs qui restituent leur expérience des casques de réalité virtuelle. Le terme de téléportation est beaucoup moins utilisé par ceux qui ont testé le HTC Vive avec les univers virtuels de Valve, que par ceux qui ont expérimenté des vidéos 360° via l’Oculus Rift. Et c’est l’inverse pour le terme d’immersion.

Dans l’article Hands on: Attempting teleportation with Google Jump Panoramic VR Videos, le journaliste pointe les défauts de la solution de Google à créer l’illusion de la téléprésence ou de l’ubiquité. Ce faisant, il montre bien que la création de cette illusion est l’effet recherché.

L’utilisation du concept de téléportation par les marques 

L’imaginaire est ce qui fait le lien entre les technologies et leur exploitation marketing par les marques, car ce que les marques utilisent à travers les technologies, c’est non seulement leur utilité, mais également les aspirations humaines que ces technologies mobilisent chez leurs utilisateurs.

Or, les technologies de téléprésence mobilisent notre désir d’ubiquité ou de téléportation.

Aussi, les hôtels Marriott ont-ils imaginé une campagne intitulée The teleporter, dans laquelle ils « téléportaient » des passants dans des univers lointains (voir la vidéo de promotion).

Lors du salon du bourget 2015, la marque ATR a utilisé quasiment le même dispositif avec la même accroche.

On trouve ainsi des usages similaires dans le tourisme, le marketing, le jeu, l’apprentissage, etc. :

Le live streaming video nous transporte ailleurs par l’urgence de l’instant

On retrouve aussi l’imaginaire de la téléportation et de l’ubiquité dans le discours autour des services de streaming vidéo en temps réel (live streaming video) tels que Periscope, Meerkat ou Younow. Il suffit par exemple de citer la page de présentation de Périscope, sur le site web du service :

“Il y a un peu plus d’un an, nous avons commencé à nous intéresser de très près à l’idée de découvrir le monde à travers le regard des autres. Et si vous pouviez littéralement voir ce que voit un manifestant en Ukraine ? Ou regarder le lever du soleil depuis une montgolfière en Cappadoce ? Cela peut sembler être une idée folle, mais nous voulions nous rapprocher au maximum de la téléportation. S’il existe de nombreuses autres façons de découvrir des événements et des lieux, nous avons constaté que la vidéo en direct est actuellement le meilleur moyen de le faire. Une photo vaut mille mots, mais la vidéo en direct peut littéralement vous transporter quelque part, comme si vous y étiez.” (C’est moi qui souligne)

Certains évoquent à ce sujet « l’ère de l’immersion mobile en temps réel ».

Un même événement filmé par deux utilisateurs de Periscope.

Cet incendie à New York a été filmé par plusieurs utilisateurs de Periscope le jour même de la sortie de l’app. Vu par de nombreuses personnes, il a été l’un des événements fondateurs du service.

Là aussi, les marques se sont emparées de cette technologie pour jouer sur ce registre. C’est le cas par exemple de Turkish Airlines, qui a retransmis en direct un vol Istanbul-New-York.

Les caméras 3D pourraient révolutionner les visioconférences

Le marketing n’est pas le seul domaine dans lequel les entreprises utilisent l’imaginaire de la téléportation ou de l’ubiquité. C’est également le cas pour certaines situations de travail, notamment les réunions et la communication à distance : “Si mes salariés pouvaient se téléporter, que d’économies de transports d’avion ou de train je ferais !”

Or, des fournisseurs de solutions d’entreprises construisent justement leur offre et leur marketing autour de ce concept. C’est le cas de Personify, dont le site web décrit ainsi la solution : “Video Conversation, With a Hint of Teleportation. Step out of the video box and into a shared virtual space.”

Personify utilise la technologie de caméra 3D développée par Intel, Intel RealSense, qui est disponible également sur son ordinateur révolutionaire Sprout. Comme l’explique cet article, “les caméras RealSense disposent de trois lentilles, une caméra 2D standard pour la photo et la vidéo, mais aussi une caméra infrarouge et un projecteur laser infrarouge. Les parties infrarouges permettent à RealSense de calculer la distance entre les objets, mais aussi de séparer des objets sur différents plans. Elles servent également à la reconnaissance faciale ainsi que celle des gestes. (…) Techniquement, RealSense est un appareil photographique plénoptique. Comprenez : un appareil photographique numérique qui utilise une matrice de micro-objectifs qui permettent d’enregistrer les informations 4D d’un flux lumineux. Ce qui permet en particulier de faire (…) du filtrage (…). En effet, RealSense saisit de multiples couches, vous pouvez ensuite appliquer un filtre noir et blanc ou une saturation lourde à chaque tranche de la trame.”

A elle toute seule, cette technologie permet de réunir une multitude d’usages et de fonctionnalités que je ne connaissais jusqu’à présent qu’à travers des appareils distincts :

    • Reconnaissance des gestes pouvant être utilisée pour le contrôle d’une interface classique, à la manière de Leap Motion ou de Kinect, ou d’une interface de réalité virtuelle, comme un contrôleur associé à un casque de réalité virtuelle.
    • Changement de mise au point d’une image après la prise de vue, à la manière de Lytro ou des applications FocusTwist ou Appareil Photo Google.
    • Application de filtres à une image, comme Instagram.
    • Mesurer des distances ou des objets présents dans une image ou devant soi.
    • Scann d’un objet ou d’une personne en 3D pour en faire un modèle ou une image 3D.
    • Reconnaissance faciale, via le scann 3D évoqué ci-dessus.
    • Aide à la conduite autonome de drones ou robots.
    • Etc. Etc.

Autant de fonctionnalités et d’usages possibles réunis dans une seule caméra intégrée à votre appareil, c’est bluffant ! (liste des appareils sur lesquels le système est implanté)

Encore mieux : j’en ai laissé une autre de côté exprès, celle utilisée par Personify ! Il s’agit d’utiliser la capacité qu’a la caméra d’Intel à identifier les niveaux de profondeur de chaque élément dans une image pour détacher un objet ou une personne située au premier plan, du fond de l’image situé au second plan, un peu comme dans la technique du tournage sur fond vert. Dans le cas de Personify, la caméra de l’ordinateur découpe donc en temps-réel l’image de son utilisateur. Elle l’affiche à l’écran de manière détourée. Le fond de l’écran peut alors être remplacé par n’importe qu’elle image, notamment une interface logicielle, par exemple PowerPoint si vous voulez faire une conférence à distance. Personify permet alors de réunir de la même manière tous les participants à la conférence. Ils s’affichent côte à côte à l’écran, détourés sur l’image de fond. On peut alors faire une réunion autour d’un même écran partagé, en ayant l’impression d’être tous côte-à-côte.

J’avoue qu’ici la comparaison avec la téléportation me paraît être plus dans le concept que dans le ressenti. C’est une sorte de téléportation par collage d’image. On est sans doute plus dans l’ubiquité. Mais c’est franchement original. Et encore une fois, la technologie Intel RealSense est franchement bluffante.

Personify réunit plusieurs personnes dans un même écran.

Personify réunit plusieurs personnes dans un même écran.

Je noterai pour terminer sur ce point, qu’Intel n’et pas le seul à travailler sur les caméras 3D. Apple a racheté la société PrimeSense en 2013. PrimeSense a notamment fourni la technologie de la première Kinect de Microsoft. Ce dernier a depuis développé sa propre technologie avec la Kinect XBox One. Enfin, Google travaille également en ce sens avec son Projet Tango. Les applications et technologies de téléprésence semblent avoir de beaux jours devant elles.

Robots de téléprésence

J’ai déjà consacré plusieurs articles aux robots de téléprésence (listés dans ce dernier article notamment). Je vous invite évidemment à les (re)lire. La comparaison avec la téléportation est évoquée par de nombreux utilisateurs, journalistes ou fabricants.

Dans le cas des robots de téléprésence « classiques », l’effet repose sur plusieurs éléments :

  • vous voyez ce qui se passe ailleurs, via la caméra sur le robot et l’écran sur votre ordinateur.
  • les personnes présentes sur le lieu voient votre image via l’écran sur le robot qui diffuse ce que filme la webcam de votre ordinateur.
  • vous pouvez interagir avec eux, par la voix notamment, via un système micros/enceintes à chaque bout de la chaîne
  • vous pouvez vous déplacer dans le lieu en commandant le robot à distance.

Pour les gens sur place, l’image de votre visage au sommet du robot donne encore plus l’impression d’un humain. D’ailleurs certains utilisateurs habillent les robots de téléprésence !

Un robot de téléprésence habillé : on se laisserais prendre au jeu !

Un robot de téléprésence habillé. Et hop, plus vrai que nature !

Finalement, dans ce cas de figure, l’impression de téléprésence est presque aussi (voire plus) fortement ressentie par les personnes sur place que par l’utilisateur à distance !

C’est peut-être pour changer cet équilibre qu’est né le projet DORA. C’était justement le sujet du dernier article que j’ai consacré aux robots de téléprésence. Ce projet explore une autre voie. Le robot ne possède pas d’écran mais une sorte de tête avec deux caméras qui font comme deux yeux. Elles permettent à l’utilisateur à distance de visualiser l’image filmée par les caméras via un casque de réalité virtuelle. Le dispositif repose également sur la synchronisation des mouvements de la tête de l’utilisateur avec ceux du robot, ce qui produit une impression très forte de téléportation pour ce dernier plutôt que pour les gens présents sur place qui ne voient pas son image, contrairement aux robots classiques.

Le robot DORA et un utilisateur

Le robot DORA et un utilisateur

Dans un article intitulé The Future of Remote Work Feels Like Teleportation, le Wall Street Journal explique que la sensation va au-delà de la téléportation pour correspondre à la sensation de se retrouver dans la peau d’un autre, ici le robot !

“DORA is a system that accomplishes a near-perfect version of a phenomenon neuroscientist Henrik Ehrsson calls the “body-swap illusion.” As I use DORA, I find myself thinking I’m inhabiting the robot’s body. As I turn around to look at my actual body, sitting at a desk and wearing a VR headset, I think “who is that guy?” Already, systems like the Beam “smart presence system” put a screen and camera on top of a simple, remote-controlled stand, creating something like a Skype robot with wheels. DORA is a natural evolution of this concept.”

Dans un autre article, le journaliste évoque “une expérience de téléprésence immersive, qui évoque la téléportation” et il cite Emre Tanirgan, l’un des porteurs du projet DORA, interviewé par le site Engadget : « [Avec DORA], vous avez l’impression d’être transporté quelque part dans le monde réel et non dans un environnement simulé. Vous voyez les gens interagir avec vous comme si vous étiez réellement sur place. Il est difficile de recréer ce type d’expérience dans un environnement virtuel pour le moment ».

C’est exactement ce que je soulignais un peu plus haut dans cet article.

Concernant l’illusion d’être dans le corps d’un autre, il faut noter que certains médecins ont essayé d’analyser ce qui se passe dans le cerveau des gens à qui ont fait subir ce genre d’expérience.

Avatars virtuels synchronisés

L’article du Wall Street Journal m’a également fait découvrir une autre technologie que l’on peut aussi associer à cette tendance. Le système développé par la société Altspace VR consiste à faire se rencontrer dans un monde virtuel les avatars 3D de plusieurs utilisateurs. Dit comme ça, le système a un petit côté réchauffé tant il fait penser à Second Life et autres mondes virtuels. C’est en grande partie vraie, mais la mise en oeuvre est ici plus élaborée puisqu’elle repose sur l’utilisation d’un casque de réalité virtuelle, comme pour DORA. La différence est qu’ici, point de robot mais des avatars dans un monde virtuel.

Comme je l’ai dit plus haut, le fait qu’il s’agisse d’un environnement virtuel me paraît moins créateur d’une illusion de téléportation. Toutefois, ce qui est intéressant ici, c’est la fonctionnalité de restitution en temps-réel sur l’avatar du mouvement des yeux des utilisateurs via un système d’eye-tracking installé dans le casque de réalité virtuelle. Le journaliste du Wall Street Journal restitue son expérience :

“One of the avatars started talking to me, and while it lacked facial expressions, I discovered something remarkable—just by virtue of our both having bodies in a virtual space, I could tell whom he was addressing, and I could even read his body language, as his robot avatar’s head tracked every movement of his actual head, even though it was thousands of miles away and, like mine, wearing a VR headset. (…) There was no question that, wherever my body was, my mind was in the made-up room and the made-up body AltspaceVR presented to my eyes and ears. Even the three-dimensional sound contributed to the illusion.”

Les yeux des avatars dans Altspace VR bougent selon l'eye-tracking des yeux des utilisateurs.

Les yeux des avatars dans Altspace VR bougent selon l’eye-tracking des yeux des utilisateurs.

Pour conclure, le journaliste fait la synthèse des technologies de téléprésence qu’il a pu tester :

“Technologies like Oblong, Personify, AltspaceVR and, in the far future, DORA all do the same thing: Create or capture some part of the illusion that you are in the same place as someone else. Inflection, body language, facial expressions, interpersonal distance and all the information that we can’t convey with current communication mediums come through loud and clear. Given how geographically diffuse our Internet-centric tools have already made many companies, it is hard to see how these technologies won’t someday transform how we work just as thoroughly as email and the telephone did.” 

Les relations sociales sont le défi ubiquitaire des mondes virtuels

Si la fonctionnalité d’eye-tracking n’est pas encore présente sur tous les casques de réalité virtuelle, elle le deviendra peut-être prochainement. Certains acteurs de poids tels que Facebook et Oculus Rift s’intéressent même à la reconnaissance des expressions du visage pour la retranscrire dans les mondes virtuels et les rendre ainsi plus réalistes du point de vue des interactions humaines. Car l’axe par lequel les mondes virtuels (à l’opposé de la vidéo 360°) semblent vouloir et pouvoir créer une illusion efficace de téléportation semble être celui de la restitution la plus réaliste possible des comportements humains. L’illusion d’ubiquité des mondes virtuels passera sans doute par leur capacité à permettre des relations sociales.

«Quand les gens se réunissent dans l'espace virtuel de High Fidelity, comme ce club, leurs avatars peuvent refléter leurs expressions faciales de la vie réelle.

« Quand les gens se réunissent dans l’espace virtuel de High Fidelity, leurs avatars peuvent refléter les expressions faciales qu’ils ont au même moment dans la vie réelle. »

C’est aussi ce sur quoi travaille actuellement Philip Rosedale, le créateur de Second Life, à travers sa nouvelle société, High Fidelity. « [Dans cet univers virtuel], explique-t-il, nous voulons que vous interagissiez avec d’autres personnes de manière émotionnellement normale ». Selon Jeremy Bailenson, responsable du Stanford University’s Virtual Human Interaction lab, « les avatars de Second Life avaient des visages assez réalistes, mais les utilisateurs n’avaient pas de moyen de les contrôler. High Fidelity a résolu ce problème. Quand j’ai récemment essayé cette technologie, ce que j’ai ressenti, c’est : « Cela donne vraiment l’impression qu’il y a une autre personne ici ».

 

Pour David Nahon, responsable du laboratoire d’immersion virtuelle (iV) de Dassault Systèmes, cela passe par 3 facteurs très bien expliqués dans la vidéo ci-dessous :

  • voir et percevoir son propre corps
  • percevoir le monde réel autour de soi tout en continuant à être dans le monde virtuel (permettre une prise en compte ou une restitution du monde réel dans le monde virtuel)
  • et enfin avoir des interactions sociales avec d’autres personnes réelles via leur avatar ou leur image

Dans cette vidéo, on voit que se mêlent en permanence des images de type univers virtuel avec des images de type vidéo, de la même manière qu’alternent des vues à la 1ère personne avec des vues à la troisième personne. Ce mix me paraît très intéressant par rapport à la création ou non d’une illusion d’ubiquité ou de téléportation.

 

De l’écran extérieur à l’écran intérieur pour faciliter les dépassements

J’aimerai compléter mon billet d’hier, sur le Samsung Safety Truck, par les remarques que m’inspire un article sur le même sujet que j’ai lu juste après.

Il s’agit d’un article du site Clubic intitulé “Safety Truck : un semi-remorque « transparent » avec un mur d’écrans Samsung”. J’aimerai réagir à 3 passages de l’article.

Un smartphone épais de 15m !

Clubic indique : “En pratique, le défi consiste à mettre en œuvre des écrans d’extérieur assez lumineux pour être visibles en plein soleil, ainsi qu’une transmission sans fil infaillible avec la caméra frontale, située à 15 mètres.”

Le premier point soulevé ici concerne l’ergonomie d’un tel dispositif : en effet, que ce soit en plein soleil, comme l’indique Clubic, ou dans d’autres circonstances, il risque d’être très difficile d’assurer la visibilité d’un tel écran dans toutes les circonstances climatiques et horaires. La variation des conditions de visibilité risque même d’être un problème en soit.

Mais on pourrait aussi soulever des problèmes de faisabilité en ce qui concerne l’accrochage de l’écran, sa solidité pour qu’il ne se détériore pas ou ne soit pas cassé par le premier vandale venu, etc. Bref, les impasses sont multiples…

Je passe sur la transmission sans fil… Par contre, je m’arrête un instant sur la distance de 15 m. C’est une différence fondamentale avec les smartphones dans le cas de la réalité augmentée. Dans ce cas du smartphone, la caméra est juste de l’autre côté de l’écran, à quelques millimètres de lui. Ils ne sont séparés que par l’épaisseur du smartphone. Ce qui contribue sans doute à notre illusion et à l’association que nous faisons sans gène entre l’image de l’écran et la réalité qu’elle cache et montre à la fois. Dans le cas du camion, c’est une toute autre paire de manches. Arrive-t-on vraiment à associer facilement une telle image à une réalité qui se trouve si loin de nous et dont on n’a aucun élément de contexte parce que le camion nous bouche toute la vue ? ça me paraît difficile.

Un « design désintéressé » est-il possible ?

Clubic indique ensuite : “Le Samsung Safety Truck est fonctionnel, mais il n’est probablement pas viable sur le plan économique. L’équipement est onéreux, contraignant sur le plan logistique, et sans retour sur investissement direct pour les transporteurs, ce qui, même si des vies sont en jeu, est un critère déterminant dans notre marché.”

Au-delà des données qui me manquent ici pour discuter sérieusement l’argument économique, la dernière remarque mérite qu’on s’y arrête. Sans doute les transporteurs regardent-ils le ROI de leurs investissements, mais n’y a-t-il pour autant aucune place pour un “design désintéressé ou altruiste”, comme je l’ai appelé la dernière fois ? Les vies humaines ne compteraient donc pour rien ? Même l’impact d’image ne serait pas suffisant ? ça serait à désespérer !

En tous cas, au-delà de ce cas précis, la question de la possibilité économique d’un “design désintéressé” me paraît bigrement intéressante ! A creuser.

Faire passer le flux vidéo via la communication véhicule-à-véhicule

Dernière citation de Clubic : “D’autant qu’une solution plus crédible a des chances d’émerger dans un futur proche : la communication véhicule-à-véhicule, qui permettrait par exemple aux voitures qui le suivent d’avoir dans leur habitacle le flux vidéo provenant du camion, ou plus simplement un voyant coloré indiquant si la voie est libre ou non.”

Voilà pour le coup quelque chose de diablement intéressant ! Et certainement bien plus crédible en effet que la piste de l’écran extérieur proposée par Samsung. La communication véhicule-à-véhicule est en effet amenée à se développer. Et l’idée d’une image vidéo ou d’un signal dans le véhicule qui suit me paraît résoudre la plupart des impasses ergonomiques de l’écran extérieur sur le camion. Je pense même aussi que cette option changerait complètement la donne par rapport à la question du “design désintéressé” car la technologie est ici partagée entre les deux véhicules, chacun pouvant être à tour de rôle celui qui diffuse ou celui qui reçoit.

 

Samsung rend les camions « transparents » pour faciliter les dépassements

Doubler un véhicule est une manoeuvre dangereuse qui occasionne de nombreux accidents de la route. Doubler un camion est encore plus dangereux car la visibilité est plus réduite et le véhicule plus long et plus large. Pour contrer cette difficulté, Samsung et l’agence Leo Burnett ont eu une idée originale : installer à l’arrière du camion un écran qui diffuse ce que filme une caméra située à l’avant afin d’indiquer aux véhicules qui suivent si la voie est libre ou pas pour doubler.

J’avoue que je reste dubitatif sur l’impact réel d’un tel dispositif. Tel qu’il est présenté dans la vidéo ci-dessous, il me semble tout autant susceptible de créer des accidents par la distraction et le mauvais jugement que d’en éviter !

 

Mais il faut y voir avant tout un coup de pub de la part de Samsung, qui se fait d’ailleurs aider pour l’occasion par une agence de publicité plutôt que par une agence de design. Sur ce plan, l’opération est parfaitement réussie : elle met en avant la capacité d’innovation de la marque au service de la sécurité. Peu importe l’efficacité opérationnelle, ici, c’est l’effet d’image qui compte. Une image d’ailleurs d’autant meilleure que la sécurité en question n’est pas tant celle des poids lourds eux-mêmes que celle des automobilistes qui les côtoient. C’est donc un dispositif au service des autres : porté par certains utilisateurs au bénéfice d’autres utilisateurs. Le magazine Core77 parle à ce sujet de “design désintéressé”. On pourrait dire aussi “altruiste”. Core77 fait remarquer que c’est assez rare dans le design automobile, où la majorité des dispositifs de sécurité sont d’abord pensés pour la sécurité des occupants du véhicule. Outre que cela me paraît quand même assez normal, je pense que les dispositifs altruistes de ce type ne sont en réalité pas aussi rares que ça. Mais bon, je suis d’accord pour dire que c’est là un axe de travail tout à fait intéressant, qui pourrait donner lieu à de belles innovations.

“Une idée qui, plutôt que de changer la vie des gens, la sauve !” (Samsung)

Dans sa communication sur le dispositif, la marque laisse d’ailleurs entendre qu’elle ne considère pas ce dernier comme une simple opération de communication, mais bien comme un dispositif opérationnel utile, qui a vocation à être déployé : “Actuellement, le prototype n’est plus en circulation, mais la technologie fonctionne et c’est une idée qui pourrait sauver de nombreuses vies. La prochaine étape consiste à effectuer les tests requis pour se conformer aux protocoles nationaux existants afin d’obtenir les permis et les approbations nécessaires. Pour cela, Samsung travaille en collaboration avec les ONG de sécurité routière et les gouvernements.”

Le dispositif du Samsung Safety Truck

Le dispositif du Samsung Safety Truck

Le même type d’image que la réalité augmentée, pour une sécurité augmentée

Au-delà d’une analyse de l’effet de communication et de l’effet opérationnel, ce qui m’a intéressé dans cette campagne, c’est le type d’usage des écrans sur lequel elle repose. Le mécanisme utilisé ici est celui que j’ai déjà décrit dans plusieurs articles sur la transparence des images, dont notamment celui-ci et celui-ci. Dans le premier article, on pourrait évoquer le cas de figure n°7 (“Superposition d’une image d’écran à la réalité dans une image”) à la différence prêt qu’on n’est pas « dans une image » mais « dans la vraie vie ». Dans le deuxième article, on pourrait évoquer le cas de la réalité augmentée, où l’image à l’écran est captée par une caméra située de l’autre côté de l’appareil et restitue donc sur l’écran ce qui se trouve réellement derrière l’écran. Dans le cas présent, le camion remplace le smartphone occultant.

Ce contexte d’application de ce type d’image aux véhicules me fait penser à la campagne de Mercedes qui avait rendu un véhicule transparent en utilisant exactement le même principe : la voiture est recouverte d’un écran qui diffuse sur chaque face du véhicule ce qu’une caméra filme sur la face opposée.

 

J’avais décrit le mécanisme de ce dispositif à travers le schéma ci-dessous :

Schéma des plans de transparence du dispositif imaginé par Mercedes dans sa campagne Invisible !

Schéma des plans de transparence du dispositif imaginé par Mercedes dans sa campagne Invisible !

Ce mécanisme était utilisé par Mercedes pour promouvoir le côté écologique d’un de ses véhicules en jouant sur l’image selon laquelle il n’avait pas d’impact sur l’environnement et donc paraissait transparent. Avec Samsung, il ne s’agit pas d’écologie mais de sécurité. Il ne s’agit pas non plus d’un effet de communication (une simple campagne de pub) mais d’un effet opérationnel (un dispositif utile). Enfin, il ne s’agit pas tant pour le camion de complètement disparaître que de ménager une fenêtre de visibilité sur ce qu’il est censé cacher autrement, à savoir ce qu’il y a devant lui. Avec ce dispositif, il n’obstrue plus la vue : il montre.

Une illustration supplémentaire de la multiplication des écrans et des caméras dans et autour des véhicules

De la même manière, alors que j’avais analysé dans une récente série d’articles la présence toujours plus grande des écrans à l’intérieur des véhicules, il se pourrait bien que l’on ait affaire également au développement de la présence d’écrans à l’extérieur des véhicules. C’est déjà ce que j’avais évoqué dans cet article à propos du concept Willie bus (voir ci-dessous). Ce cas n’étant en réalité qu’un cas particulier de la multiplication des écrans sur tout type de surface.

 

Il se pourrait bien aussi que l’on assiste à une multiplication de la présence des caméras dans et hors des véhicules. J’y reviendrai dans un prochain article. Ce cas n’étant finalement qu’un cas particulier de la multiplication des capteurs à l’extérieur et à l’intérieur des véhicules. Là aussi, je consacrerai sans doute un article à chacun de ces deux cas de figure.

Une opportunité pour les assureurs ?

Enfin, j’aimerai finir en attirant l’attention sur l’intérêt de ce genre de dispositif pour les assureurs, soit à titre d’effet de communication, soit à titre d’effet opérationnel (à creuser certes, mais il y a un potentiel certain). L’une des principales raisons de la multiplication de tous ces capteurs, caméras et écrans dans et à l’extérieur des véhicules étant bien évidemment la sécurité et la volonté de diminuer les risques (de collision, de dommage aux véhicules, etc.). Là aussi, je reviendrai sans doute sur ce point dans un prochain article.

Et vous, qu’en pensez-vous ?

 

L’essor des vidéos 360° – 4) Les catalogues de films s’étoffent et les expériences de tournage se multiplient – Usage n°8 : Les fictions

Déjà publiés :

❧❧❧

Usage n°8 : Réaliser des fictions

Créer des films de fiction avec la technologie de la vidéo à 360° ? Si le challenge semble en faire rêver plus d’un, le défi reste encore largement inexploré. L’un des premiers exemples que je connaisse dans un domaine assez proche est le prototype de fiction dessinée intitulé IDNA, conçu par le studio graphique suisse Apelab et produit par HEAD Genève (Haute Ecole d’Art et de Design) :

 

Le projet est remarquable mais il s’agit de dessin et non de vidéo. On retrouve aussi d’autres exemples de fictions narratives dans des univers en 3D, de la même manière que l’on trouve des exemples de reconstitution d’événements réels en 3D.

Mais qu’en est-il pour les films de fiction ? L’un des rares exemples que j’ai trouvé est l’oeuvre de Google ATAP (Google’s Advanced Technology and Projects group), le laboratoire de recherche avancée de Google, fortement mis en avant lors du dernier Google I/O.  La fiction s’appelle Help. C’est un film d’action de 5 mn réalisé en collaboration avec le studio The Mill et le réalisateur Justin Lin. Le film est distribué via l’application Android Google’s Spotlight Stories.

 

A lire sur le sujet :

 

Usage n°9 : Enfin, il y a aussi la pornographie…

Evidemment, le panorama n’aurait pas été complet sans évoquer l’industrie du porno, dont on peut comprendre l’intérêt pour cette technologie visuelle à la fois individuelle et ultra immersive. Ce secteur s’est donc emparé très tôt de cette technologie, dans laquelle il voit des espoirs de profits importants. A tel point qu’Oculus a dû se positionner sur le sujet suite à l’annonce récente de la création de son futur store dédié aux applications de réalité virtuelle. La filiale de Facebook a donc annoncé que les applications à connotation sexuelle n’auraient pas de place dans son catalogue.

Voilà, mon panorama et ma série d’articles consacrés à la vidéo immersive s’arrête là. Je reviendrai cependant certainement sur ce sujet bientôt.

 

L’essor des vidéos 360° – 4) Les catalogues de films s’étoffent et les expériences de tournage se multiplient – Usage n°7 : Les documentaires

Déjà publiés :

❧❧❧

Usage n°7 : Réaliser des documentaires (journalisme et activisme)

L’impact créé par la vidéo immersive amène les journalistes et les réalisateurs de documentaires à explorer ce nouveau média.

De plus en plus d’articles sont d’ailleurs consacrés à son potentiel impact sur le journalisme et les documentaires :

Dans les faits, qu’en est-il des réalisations dans ce domaine ?

Elles sont assez récentes, mais on constate un réel engouement. L’un des premiers exemples que j’ai identifié est le documentaire Zero Point, sorti en fin d’année dernière. Comme souvent dans ces cas là, le documentaire est assez tautologique puisqu’il parle… de réalité virtuelle !!

Comme l’indique le site web Aruco, « Zero Point traite du sujet de la réalité virtuelle, de ses bienfaits mais aussi de ses dérives. Pourrait-on perdre la notion du réel..? oublier ce qui est virtuel de ce qui ne l’est pas…? » D’une durée de 20 mn, le film a été tourné par Danfung Dennis, déjà réalisateur d’un documentaire très remarqué sur la guerre en Afghanistan : Hell and Back Again. Danfung Dennis est également à la tête de la société Condition One, spécialisée dans la réalisation de films pour casques de réalité virtuelle. Pour les heureux possesseurs d’un Oculus Rift, le film est en vente en ligne. Pour les autres, voici la bande-annonce :

 

La vidéo ci-dessous montre également plusieurs extraits du documentaire :

 

A lire sur le sujet :

Quelques semaines après Zero Point, la chaîne franco-allemande Arte proposait à son tour un documentaire de 30 mn entièrement tourné en vidéo 360°. Proposé en marge de la diffusion à l’antenne du documentaire Polar Sea : le passage du nord-ouest, le film Polar Sea 360° est visionnable en ligne ou sur casque de réalité virtuelle, via l’application dédiée Android/iOS d’Arte. Le film a été conçu et réalisé par Thomas Wallner, de la société Deep 360 Inc., dont j’ai déjà parlé dans un précédent article de cette série. Pour le tournage, il a utilisé un module de six caméras GoPro et un logiciel d’assemblage d’images fait maison. L’expérience de visionnage est vraiment saisissante.

Les équipes de Deep 360 Inc. pendant le tournage du documentaire Polar Sea 360.

Les équipes de Deep 360 Inc. pendant le tournage du documentaire Polar Sea 360.

A l’image de Thomas Wallner, de Deep 360 Inc., Chris Milk, de VRSE.works, est également à l’origine de plusieurs documentaires immersifs remarqués.

Je citerai tout d’abord le reportage que lui a commandé le New York Times en avril de cette année, en parallèle d’une autre commande du journal auprès de l’artiste français JR. Ce dernier a installé un collage géant sur un trottoir de Manhattan, à New York. Il a ensuite photographié le collage depuis un hélicoptère. Le cliché a ensuite été utilisé pour faire la une du New York Times Magazine (cf. ci-dessous)

La Une du New York Times Magazine avec le collage géant de JR.

La Une du New York Times Magazine avec le collage géant de JR.

Chris Milk a donc suivi JR pendant la réalisation de cette installation et en a fait un film en vidéo immersive intitulé Walking New York. Le film est visualisable sur Google Cardboard ou Samsung Gear VR via l’application dédiée de VRSE.

Une scène du film en VR de Chris Milk Walking New York

Une scène du film en VR de Chris Milk Walking New York.

A lire sur le sujet :

Quelques semaines plus tôt, Chris Milk avait présenté Clouds over Sidra, un film en vidéo immersive réalisé pour les Nations Unies, en partenariat avec Samsung. Le film a été présenté le 21 janvier au forum économique de Davos pour sensibiliser les puissants de la planète au sort des réfugiés syriens. Le film suit une jeune fille de 12 ans dans un camp de réfugiés en Jordanie. Comme Walking New York, il est visionnable via l’application de VRSE.

Le film Clouds over Sidra, pendant une séance de visionnage, à Davos (Photo: Socrates Kakoulides).

Le film Clouds over Sidra, pendant une séance de visionnage, à Davos (Photo: Socrates Kakoulides).

On voit avec cet exemple, comme avec Polar Sea, que la vidéo immersive est ici utilisée pour sensibiliser et influencer, tout autant que pour simplement informer.

A lire sur ce sujet :

Voilà pour cet usage. Le prochain et dernier volet de cette série sera consacré aux fictions et… à la pornographie, qui s’est évidemment emparé elle aussi de ce média.