SAMI, un robot de téléprésence à commande « naturelle »

Fin juin, j’avais rédigé un article sur le projet DORA, un robot de téléprésence pilotable depuis un casque Oculus Rift. Or, récemment, un tweet de Rodolphe Hasselvander, le CEO de Blue Frog Robotics, créateur du déjà célèbre Buddy, me faisait remarquer que l’équipe qu’il dirige au CRIIF (Centre de Robotique Intégrée d’Ile de France), a déjà mis au point, elle aussi, un robot de téléprésence humanoïde pilotable via un casque de réalité virtuelle. Il s’appelle SAMI.

Le CRIIF est un laboratoire de R&D financé sur des fonds publics et privés, intégré au sein du Robot Lab, un incubateur parisien de solutions robotiques et objets connectés. C’est le CRIIF qui a donné naissance à Blue Frog Robotics en tant que spin-off pour commercialiser le robot Buddy. Rodolphe Hasselvander, CEO de Blue Frog Robotics, est également co-fondateur et COO du CRIIF.

SAMI est un robot semi-humanoïde, avec une base mobile sur roues. Il existe depuis déjà pas mal de temps puisque sa première sortie publique avait eu lieu lors de l’édition 2012 de Futur en Seine. SAMI a un torse anthropomorphe, des bras et des mains qui s’articulent comme leurs homologues humains. SAMI est un robot de téléprésence qui se contrôle à distance de manière très intuitive, via des contrôleurs immersifs. Pour les bras, le pilote humain n’a qu’à exécuter les mouvements : ils sont ensuite reconnus par un capteur de type Kinect 2 et reproduits par SAMI. Pour la tête, comme sur DORA, elle est pilotée via un casque Oculus Rift qui permet à SAMI de reproduire les mouvements de tête de son pilote humain.

Ce type de contrôle permet une interaction à distance très intuitive et immersive du pilote humain avec d’autres humains qui sont en présence de SAMI. Il permet également à SAMI de réaliser de manière très naturelle des actions habituellement difficiles à réaliser pour un robot, telles que prendre et déposer un verre d’eau ou des médicaments ou manipuler des objets.

SAMI a été imaginé pour être au service de personnes en manque d’autonomie (personnes âgées, malades, travailleurs en situations complexes…). L’un des gros intérêts du robot pour la personne assistée, c’est que si SAMI bouge, c’est qu’il y a une personne à distance qui est en train de le piloter pour aider la personne sur place. C’est donc un type de soutien très différent d’un robot intelligent purement autonome. SAMI est une interface robotique entre deux humains éloignés l’un de l’autre.

Pour autant, SAMI peut également apprendre des mouvements et actions, et les exécuter de manière autonome, piloté cette fois-ci par la personne qui est présente à côté de lui. SAMI dispose également de capteurs 3D pour se déplacer et agir de manière autonome, en prenant en compte son environnement, et ne pas heurter un mur, un objet ou une personne.

Bref, je vous laisse le découvrir dans la vidéo ci-dessous :

Si Buddy, pourtant créé après lui, lui a grillé la priorité en termes de popularité, c’est parce qu’il a été positionné sur un créneau accessible par le grand public (plus petit, moins cher, d’usage domestique plus simple), alors que SAMI vise des usages beaucoup plus professionnels. Indépendemment de cela, SAMI représente cependant à mon sens une tendance clé de l’évolution conjointe des robots de téléprésence et de la réalité virtuelle…

La lente ascension de l’achat instantané

Réduire au maximum la longueur et la complexité du processus d’achat est l’un des axes de travail de la plupart des e-commerçants. L’enjeu : réduire les risques d’abandon du processus par l’acheteur avant la confirmation du paiement. Car, plus le process est long et complexe, plus les risques sont élevés.

Dans ce contexte, le travail sur le tunnel d’achat à proprement parler est fondamental. C’est la priorité de nombreux e-commerçants. Mais il ne faut pas oublier pour autant que le process d’achat dans sa globalité ne commence pas avec le tunnel d’achat. Il commence bien avant, avec de nombreuses étapes, dont la particularité est d’être beaucoup plus difficilement maîtrisées par les e-commerçants : elles ne leur appartiennent pas forcément (elles appartiennent à de nombreux intermédiaires : média, publicité…) et le parcours des clients est d’une grande diversité d’un client à l’autre. C’est tout l’enjeu de l’analyse des parcours clients.

Pourtant, ces étapes amont sont cruciales. Et l’un des enjeux du e-commerce actuel consiste à permettre au client de pouvoir engager l’acte d’achat à tout moment, quel que soit le site sur lequel il se trouve, quel que soit le canal qu’il utilise. Bref, à tout moment, dans n’importe quelle situation, pouvoir dire “j’achète” et ce faisant, acheter. C’est ce que j’appelle l’achat instantané, l’instant shopping. Pour les intermédiaires, c’est aussi l’opportunité unique de valoriser leurs contenus et leur audience. Bref, tout le monde veut sa part du gâteau de l’instant shopping. C’est pourquoi j’ai voulu y voir plus clair. Je vous propose donc de passer en revue dans autant d’articles, les principales tendances à l’oeuvre dans cette démarche que mettent en oeuvre de nombreuses entreprises pour capter à leur profit les bénéfices du e-commerce.

Plutôt que d’utiliser des articles, comme dans la précédente série sur les déambulations numériques, je vais utiliser des pages, qui, là encore, répondent donc au principe du « work in progress », sorte de bêta perpétuelle éditoriale. En guide de sommaire et d’introduction, vous retrouverez même ici une page similaire à cet article, qui, contrairement à ce dernier, sera quant à elle régulièrement mise à jour.

Voici, en tous cas, le sommaire que je vous propose. Toutes les pages ne sont pas encore rédigées. Je le ferai au fur et à mesure :

La première rubrique s’intéresse aux démarches qui visent à élargir le champ des “lieux d’activation” de l’achat :

  1. Des boutons d’achat dans les sites web et les apps mobiles
  2. Acheter à partir d’une reconnaissance d’image
  3. Les shoppable vidéos
  4. Le t-commerce

La seconde rubrique s’intéresse aux démarches qui visent à simplifier, à raccourcir les étapes du parcours d’achat, à proposer des interactions plus intuitives et incitatives (incitative design) :

  1. Le « one click shopping »
  2. Les interactions d’achat les plus simples
  3. Des boutons d’achat physiques dans votre cuisine & des devices dédiés
  4. Acheter via les services conversationnels
  5. Le paiement mobile sans contact : l’acte d’achat “physique” simplifié au maximum

Déambulations numériques

Bon, ce n’est pas parce que les vacances sont désormais un lointain souvenir et que l’automne a déjà largement pointé le bout de son nez (en tous cas en termes de climat), qu’il faut se morfondre et oublier toute velléité de balades touristiques ! Sans même se limiter aux Journées du patrimoine qui ont lieu ce week-end, il y a parfois beaucoup à découvrir à côté de chez soi sans qu’on le sache. Justement, je me suis dit que c’était le moment idéal pour consacrer une série d’articles à un sujet qui m’est cher : la manière dont le numérique nous aide à arpenter le réel, ses rues, ses routes, ses chemins, que ce soit en ville ou à la campagne…

Dans cette série, je ne m’intéresserai pas trop à l’optimisation des trajets, que ce soit en termes de coût, de durée, d’économie d’énergie (non pas que ce ne soit pas important, mais j’y reviendrai ultérieurement). Je vais plutôt m’intéresser à la valeur ajoutée que le digital donne à la visite d’un lieu, à la manière dont il nous met en route, dont il renouvelle et enrichit l’expérience touristique d’un lieu, même quand il n’y a rien à voir a priori. Je prendrai donc assez souvent le contre-pied des visites virtuelles, ces visites à distance dont je parle souvent dans ce blog, car il s’agira la plupart du temps d’aller sur place, de sortir de chez soi, d’être à la merci d’une zone grise où notre téléphone ne capte plus le réseau !!! La plupart du temps… mais pas systématiquement !!! Il faut que ça reste déroutant !!!

Petite précision avant de vous donner le programme : plutôt que de faire des articles, j’ai choisi pour cette série de faire des pages et de les mettre dans la section dédiée de ce blog. Comme le veut le principe de cette section, ces pages sont donc des « work in progress ». Elles sont même parfois publiées alors qu’elles sont encore un peu foutraques, mais j’ai l’intention de les mettre à jour régulièrement pour qu’elles deviennent de plus en plus riches progressivement. N’hésitez pas à allez les voir régulièrement !

En attendant, voici le programme (vous pourrez le retrouver également ici – Bonne lecture !) :

  1. Déambulation sur les traces de Michel Gondry, qui a plus d’un tour dans son sac…
  2. Déambulation sur les lieux de films
  3. Déambulation au son des chansons ou sur les traces des romans et autres oeuvres d’art
  4. Balades sonores : laissez les guides vous murmurer à l’oreille
  5. Déambulations sur les traces de l’histoire
  6. Partez dans l’inconnu : laissez faire l’appli…
  7. Jeux de pistes et chasses au trésor
  8. Les guides participatifs ou liés aux données d’usage
  9. Déambulez au gré de messages géolocalisés

Yvon Moysan : « Les assureurs peuvent multiplier les points de contact en faisant de la prévention connectée ».

Yvon MOYSAN - Colour

Yvon Moysan est président fondateur de Saint Germain Consulting et Lecturer Digital Marketing à l’IESEG School of Management. J’ai eu l’occasion d’échanger avec lui pour la première fois suite à un article de ce blog dans lequel je le citais. Nous nous sommes ensuite croisés lors d’une conférence organisée par TCS, mon employeur, sur la transformation digitale de l’assurance. Je lui ai alors demandé s’il était d’accord pour que je l’interviewe pour ce blog. Il a immédiatement accepté. Je l’en remercie vivement ! L’interview a été réalisée au début de l’été. J’ai laissé passé les vacances scolaires. Et aujourd’hui, jour de rentrée : je la publie ! C’est la première interview que je publie sur ce blog, mais j’avoue que l’exercice m’a beaucoup plu et je suis assez tenté de renouveler l’expérience très prochaînement ! J’ai plusieurs noms en tête. Nous verrons bien ce que l’avenir nous réserve, mais c’est peut-être le début d’une nouvelle catégorie d’articles dans ce blog. Dans l’immédiat, place à cette première interview, pour laquelle je tiens encore une fois à remercier Yvon Moysan.

❧❧❧

Bonjour Yvon. Peux-tu te présenter rapidement : quel est ton parcours et quelles sont tes activités actuelles ?

Bien sûr ! Je travaille dans le digital dans le secteur Banque-Assurance depuis 2000. J’ai démarré chez Banque Directe, la filiale 100% internet du Groupe BNP PARIBAS, qui est devenue ensuite AXA Banque. Je m’occupais du e-business. J’ai ensuite rejoint HSBC France pour m’occuper du e-business sur le marché BtoB. Puis, j’ai rejoint le GIE AXA, en 2009, pour travailler sur le nouveau modèle de l’entreprise : le multi-accès. L’idée était de passer d’un modèle classique centré sur l’agent et le courtier à un modèle qui intégrait tous les canaux pour tous les pays dans le monde. Puis, j’ai rejoint le conseil sur des missions de stratégie de digital pour Société Générale et BPCE avant de créer ma propre structure : Saint Germain Consulting. En parallèle, j’ai commencé à donner des cours en université et grandes écoles. En octobre 2014, j’ai intégré l’IESEG comme enseignant en marketing, tout en continuant mes activités de consultant spécialisé dans le marketing digital du secteur Banque-Assurance. D’ailleurs, au sein de l’IESEG, j’essaie de faire la liaison entre les deux mondes, celui de l’entreprise et celui de l’école. On développe par exemple la recherche appliquée, notamment auprès des banquiers et assureurs, sur le modèle de ce qui se fait aux Etats-Unis. Récemment, nous avons organisé deux conférences sur le Big Data et le digital dans la banque-assurance à l’horizon 2020 (1). On a également créé une Chaire sur le Big Data et le digital banking avec le Crédit Agricole Nord de la France. Et une autre sur le commerce digital avec Leroy-Merlin. C’est un modèle gagnant-gagnant : les entreprises fournissent des datas et les professeurs peuvent résoudre les problématiques de l’entreprise tout en publiant dans des revues académiques.

Tu prépares une thèse concernant l’impact des objets connectés sur le comportement des consommateurs (2). Peux-tu nous en dire un mot ?

Je ne peux pas en dire trop pour l’instant car la thèse est confidentielle à ce stade. Mais je travaille avec une entreprise qui me fournit des données à partir desquelles j’essaie effectivement de comprendre l’impact de l’usage des objets connectés sur le comportement quotidien des consommateurs. Quelles sont les données qui ont un impact ? Est-ce que le fait de partager ses données avec ses amis sur les réseaux sociaux influence les comportements ? Et si oui, comment ? Est-ce que le fait d’avoir des notifications push et des alertes a également une influence ? Et si oui, laquelle ? Même question pour les dashboards : influencent-ils ou pas les utilisateurs ? Et si oui, comment ? La thèse devrait être soutenue dans 3 ans. L’entreprise qui me fournit les données n’appartient pas au secteur banque assurance, donc la thèse ne concerne pas spécifiquement ce secteur.

J’aimerais quand même revenir sur ce secteur que tu connais bien. Dans un article récent de La Revue du Digital, tu expliquais que « dans l’assurance santé, il semble qu’il vaille mieux proposer des avantages commerciaux au client dont le comportement est responsable plutôt que de réduire le tarif de sa prime, si on veut le séduire.” Peux-tu nous expliquer cela ?

C’est le principe de l’assurance à l’usage, qui a démarré dans l’assurance auto avec les offres « Pay as you drive » ou « Pay how you drive ». Aux Etats-Unis, l’assureur Aetna a essayé de dupliquer ça dans l’assurance santé. Or, avec ce modèle, on n’a plus affaire à une entreprise d’assurance mais à une entreprise de datas. On va donc « tracker » l’activité des assurés ainsi que les données du dossier médical du patient, et on va dire que plus ces derniers ont une activité physique, moins on va les faire payer. Le cabinet Forrester a analysé cette mécanique et a constaté que les assurés ne sont pas encore prêts à partager leurs données de santé. Ils sont prêts sur l’auto mais pas sur la santé. Aetna a essayé de développer ce modèle sur le BtoC puis sur le BtoB, mais ça n’a pas été performant. Ils ont fermé la plateforme au bout de deux ans.

A l’inverse, le modèle de l’assureur sud-africain Discovery, à travers son offre Discovery Vitality, a eu beaucoup plus de succès : il a été exporté dans plusieurs pays. En Europe, Generali vient de signer avec eux pour l’importer dans 4 pays pilotes. Ce dispositif fait plus penser à un programme de fidélité : plus on utilise son tracker d’activité ou plus on fait des visites chez son médecin, plus on gagne des points ! Ce qui permet ensuite de gagner des réductions pour l’achat de produits ou de services en lien avec la santé, par exemple dans des supermarchés bio, des magasins de sport, des voyages, de la presse, etc. Ce programme marche très bien. En réalité, il a été créé chez Discovery en 1997, bien avant les objets connectés ! Au départ, c’était un programme de fidélité classique, qu’ils ont ensuite adapté aux objets connectés avec beaucoup de succès. Ils le mettent d’ailleurs à jour tous les ans.

Le programme Vitality, de l'assureur sud africain Discovery

Le programme Vitality, de l’assureur sud africain Discovery

Cette adaptation d’un programme déjà ancien n’est-elle pas la raison de leur succès ? Serait-il possible aujourd’hui de créer un tel programme ex-nihilo ?

Oui, je le pense ! Plus qu’à la reprise d’un programme existant, ce succès est réellement dû à la mécanique vertueuse issue du partenariat avec les différentes enseignes engagées dans ce programme. Il y a d’ailleurs des exemples de programmes similaires qui naissent aujourd’hui. C’est le cas de l’offre créée par la start-up américaine Oscar. Ce pure player est parti de rien pour créer un programme de prévention reposant sur l’usage d’un bracelet connecté qui permet de gagner des points, transformés ensuite en bons d’achats Amazon. Ils ont démarré avec 17 000 clients à New-York et « s’exportent » désormais dans d’autres états américains (3).

Oscar invite ses clients à utiliser un bracelet connecté.

Oscar invite ses clients à utiliser un bracelet connecté.

Comment analyses-tu ces différences de réussite ?

Selon moi, c’est lié à l’usage des données. Oscar et Discovery ne jouent pas tant sur les données médicales individuelles que sur les données d’activité. D’un point de vue médical, ils utilisent des études génériques. Et la data individuelle sert pour la mécanique du programme plus que pour connaître la personne. Chez Oscar et Discovery, le partage de la donnée est masqué ou n’a pas lieu. Alors que le partage est au cœur de l’offre d’Aetna. Mais aujourd’hui, les clients ne sont pas prêts à cela.

On ne cherche donc pas encore à mieux connaitre la personne ?

Aujourd’hui non, pas à ce stade. Si on regarde Aetna, le changement demandé aux assurés est trop brutal. Les études montrent qu’ils sont prêt à partager des données de santé de leurs proches (père, mère, etc.) pour être notamment alertés en cas de problème mais pas les leurs !

On constate aussi des différences entre le partage à son médecin et à son assureur, non ?

Oui, très clairement, il y a 3 niveaux : partager à son médecin personnel, les gens sont assez enclin à le faire; partager au corps médical en général, éventuellement ; mais partager à son assureur, très peu de gens sont d’accord. Le lien assureur-assuré n’est pas encore assez fort.

Les gens n’ont pas confiance ?

Sans doute. Ils craignent que leurs données soient utilisées pour un modèle commercial.

Tu as cité des exemples issus du monde anglo-saxon. Y a-t-il des initiatives en France ?

Il y a quelques pilotes. AXA a fait un test en proposant un traker d’activité Withings aux premiers acheteurs de son offre Modulango. A partir de 7000 pas par jour mesurés par le capteur, les clients recevaient un bon d’achat de 50 euros pour de la médecine douce. On n’a pas de chiffres officiels sur cette initiative. Il s’agit pour AXA de communiquer, de se positionner et d’apprendre.

Le fonctionnement du programme Axa Modulango Withings

Le fonctionnement du programme Axa Modulango Withings

Il y a aussi des initiatives dans d’autres pays. En Russie, Alfa Bank a associé un tracker fitness avec un compte d’épargne. Plus le client marche, plus il épargne ! Il paramètre le montant à transférer par mètre parcouru. Apparemment, les clients qui ont ce service marchent 1,5 fois plus que les autres et épargnent 2 fois plus !! Le dispositif fonctionne avec une appli mobile connectée à des bracelets Fitbit ou Jawbone. Les clients bénéficient au départ d’un taux préférentiel (6%). Apparemment, les résultats sont encourageants.

Le programme Activity, de Alfa Bank

Le programme Activity, de Alfa Bank

D’après toi, quels sont les facteurs qui impactent le plus les changements de comportement des consommateurs ? Est-ce l’objet lui-même (ses caractéristiques techniques, fonctionnelles et design) ou le programme logiciel et comportemental associé ou encore l’accompagnement humain ?

Les trois leviers ont un impact.

Concernant le premier, les Google Glass sont un très bon exemple d’une accumulation de problèmes (phénomène d’addiction, alignement des yeux, protection vie privée, risque cancer cerveau, look…) qui ont occasionné une réflexion sur une nouvelle version.

Le deuxième levier est très vrai aussi. C’est ce que je disais tout à l’heure sur les offres santé. L’efficacité diffère selon la manière dont le fournisseur du service ou le client exploitent les données. Si le programme n’est pas « intelligent », c’est-à-dire si le client n’est pas capable d‘en tirer quoi que ce soit pour adapter son comportement, ça ne sert à rien. Donc, il faut permettre d’exploiter les données.

Mais selon moi la couche conseil est peut-être la plus importante, avec le rôle du coach notamment. Par exemple, un conseiller patrimonial.

Concernant le premier point, les objets connectés sont-ils fiables aujourd’hui, notamment dans leurs mesures ?

C’est variable. La CPAM se pose actuellement ce genre de question. Le jour où quelqu’un pourra dire de manière sûre « les objets connectés sont efficaces », la CPAM pourra peut-être prendre en compte leur remboursement selon qu’ils sont efficaces ou empêchent de tomber malade. Mais on n’en est pas encore là ! Il y a encore de vraies problématiques de fiabilité selon la CPAM et l’ARS. Même si ça n’est pas vrai pour tous les objets connectés.

On pourrait créer une norme ou un label à appliquer sur ces objets ?

Oui, certainement. C’est très intéressant. Ça pourrait être le rôle de ces entités étatiques de créer cela, sur le modèle de ce qui doit exister pour les appareils médicaux sans doute (je ne suis pas spécialiste).

Concernant le rôle des coaches, est-ce qu’il n’y a pas là l’opportunité de changer complètement le métier de coach, voire de le créer ?

Pour moi, c’est même ce qu’il y a de plus révolutionnaire pour un métier comme celui de l’assureur. Désormais, il ne peut plus se contenter de gagner des souscriptions et de gérer des sinistres. Il doit multiplier les points de contact en faisant de la prévention, et notamment de la prévention connectée. On pourrait avoir quelque chose de similaire à ce que les banques ont pu constater lorsqu’elles ont mis en place leur stratégie multicanale.

Je connais peu d’exemples de mise en œuvre de ce type de démarche. Dans leur digitalisation, les assureurs restent encore dans une logique d’actuariat qui consiste à  récupérer des datas pour la cotation, ce qui leur permet d’être sur des modèles mouvants, voire même en rupture. Mais à mon sens, ils ratent quelque chose d’intéressant…et peut être trop simple pour eux… Pourtant, dans l’assurance auto, il y a eu une évolution du Pay as you drive quantitatif vers le Pay how you drive plus qualitatif, ainsi que l’ajout de services : géolocalisation, alerte sms quand la voiture quitte une zone géographique donnée pour éviter le vol, ou alerte accidents, ou encore affichage de la route la plus sûre, comme dans l’offre conjointe du courtier anglais Motaquote & du fabricant Tomtom. Il y a donc des services à valeur ajoutée. Mais peu de services proposant du conseil ou du coaching humain.

Je pense que la couche conseil est la prochaine étape qui pourrait différencier les banques et assureurs réellement innovants. Dans leurs offres récentes, ils ont encore du mal à créer de la valeur ajoutée : ils copient avec les objets connectés ce qu’ils font sur mobile alors que le défi est d’inventer une nouvelle offre, un nouveau produit !

Merci Yvon ! C’était passionnant !

Merci !

❧❧❧

Notes :

(1) « Le digital en 2020 : quelles perspectives dans le secteur Bancassurance ? » (7 avril 2015) et Comment les nouvelles données vont transformer les entreprises ? (9 juin 2015)

(2) “Modifications des comportements du consommateur suite à l’usage des objets connectés”, thèse en préparation à Paris 10 dans le cadre de Ecole doctorale Economie, organisations, société (Nanterre) , sous la direction de Christophe Bénavent.

(3) D’après le blog de Patrice Bernard, Oscar aurait conquis 40 000 clients en deux ans d’existence, pour 200 millions de dollars de chiffres d’affaires. Elle a récemment bénéficié d’une quatrième levée de fond de 145 millions de dollars !

 

Grand angle sur les coulisses des marques… en vidéo 360°

J’ai déjà consacré plusieurs articles de ce blog à la manière dont les marques peuvent utiliser la vidéo pour présenter leurs coulisses. Vous pouvez notamment vous référer à la série “Dans les coulisses des entreprises : visites privées au temps du digital”. L’un des articles de cette série était consacré à l’usage de la vidéo par les marques de luxe. Un autre à l’usage de la vidéo dans le design des sites web. Et plus récemment, je me suis intéressé à l’usage des vidéos 360° par les marques pour nous faire découvrir leurs coulisses. Je citais notamment le dispositif Dior Eyes. Mais je n’avais pas d’autres exemples sous la main. Or, j’ai découvert depuis que d’autres marques de luxe avaient déjà utilisé ce procédé, en particulier Louis Vuiton et Van Cleef & Arpels. Je vous emmènerai ensuite à Sidney, pour y découvrir l’université de la ville en vidéo 360°.

Louis Vuitton : des défilés aux ateliers

Commençons tout d’abord par le défilé de la collection Automne-Hiver 2010 de Louis Vuitton. Lors de cet événement, l’agence Ogilvy One a photographié les mannequins à 360° avec une multitude d’appareils photos disposés en cercle, qui se déclenchaient simultanément. 8 heures après le défilé, les vidéos montées à partir des photos étaient visibles sur la page Facebook de la marque et des animations étaient accessibles sur son application mobile. Les internautes pouvaient sélectionner les mannequins, lancer les vidéos ou les animations, et ainsi visionner les modèles sous tous les angles.

Dans ce cas précis, il ne s’agissait donc pas de vidéos panoramiques 360° comme celles dont je parle dans mes récents articles et qui sont utilisées dans les casques de réalité virtuelle. Les vidéos panoramiques placent la caméra ― et donc ensuite le spectateur― au centre d’une scène qui se déroule autour d’eux. Mais dans le cas présent, les prises de vue se font tout autour des mannequins, qui deviennent visibles à 360°, exactement comme on photographie certains produits pour permettre leur visualisation à 360° dans un site e-commerce ou une oeuvre d’art sur le site web d’un musée. On parle ici d’un shooting photo en mode “spin”. Il peut ensuite être diffusé sous forme de vidéo ou d’animation interactive. Dans ce dispositif, les mannequins restent statiques car ils n’ont pas été filmés mais photographiés. La vidéo ci-dessous explique très bien le dispositif.

 

Après cet essai initial, le premier véritable usage de vidéos panoramiques 360° par Louis Vuitton a eu lieu dès l’année suivante, lors de la Fashion Week 2011. Le défilé, ainsi que plusieurs moments clés de l’événement (les coulisses, la préparation, etc.), ont été filmés en vidéo immersive 360° pour être ensuite consultables pendant plusieurs semaines sur le site dédié à l’événement. Bien que le site soit aujourd’hui fermé, vous pouvez vous faire une petite idée de ce que ça donnait à travers les photos ci-dessous.

 

Pour son deuxième usage de la vidéo 360°, Louis Vuitton a changé de registre puisqu’elle a utilisé cette technologie dans l’une des séquences de son mini-site dédié à faire découvrir le siège social de la marque, en plein Paris. Le site a été mis en ligne au printemps 2015. La vidéo nous plonge, de manière très intime et discrète à la fois, au coeur d’un atelier où des personnels de la marque s’activent.

Plongeon au coeur d'un atelier de Louis Vuitton en vidéo 360°

Plongeon au coeur d’un atelier de Louis Vuitton en vidéo 360°

Dommage qu’il n’y ait qu’une seule vidéo 360° dans ce mini-site et qu’elle ne soit pas interactive, contrairement à ce qu’avait fait Van Cleef & Arpels quelques années plus tôt.

Van Cleef & Arpels

Car Louis Vuitton n’est effectivement pas le premier à utiliser ce procédé de la vidéo 360° pour présenter ses ateliers. Depuis 2012, en effet, le joaillier Van Cleef & Arpels propose sur son site web une Visite virtuelle des Ateliers (voir la rubrique de ce nom sur la page d’accueil du site web de la marque), qui plus est, plus élaborée que celle de Louis Vuitton ! Elle se compose en effet de plusieurs vidéos qui nous permettent de découvrir de manière séquencée plusieurs pièces des Ateliers correspondant chacune à un métier différent et à une étape du cycle de création d’un bijou. Autre élément de complexité : la vidéo est interactive et permet de visionner d’autres médias (textes, photos, vidéos). Le format de la vidéo, moins sphérique et de taille réduite, ainsi que sa structure très découpée, la rendent cependant moins immersive et contemplative que celle de Louis Vuitton, mais beaucoup plus pédagogique.

La Visite Virtuelle des Ateliers Van Cleef & Arpels

La Visite Virtuelle des Ateliers Van Cleef & Arpels

L’Université de Sidney

Quittons le domaine du luxe pour découvrir l’usage qui, selon moi, conjugue le meilleur des deux exemples précédents, à savoir l’aspect immersif de la vidéo de Louis Vuitton et l’aspect pédagogique et interactif de celle de Van Cleef & Arpels. Il s’agit du site web de l’Université de Sidney. Plusieurs vidéos 360° s’enchaînent en plein écran pour nous montrer différents lieux du campus. Et elles sont rendues interactives dès lors qu’on les met en mode “pause”. Comme le dit un responsable de l’agence digitale qui a réalisé le site web : « Choisir son université est un choix important qui va marquer le reste de votre vie. Nous avons voulu que l’expérience permette aux utilisateurs de prendre le temps de considérer les facteurs sociaux et culturels de ce choix, mais aussi délivrer de l’information factuelle de manière plus engageante (source). » Le résultat est un bel exemple de ce que peut donner ce type de dispositif.

L'université de Sidney s'offre à la découverte en vidéo 360° plein écran et interactive.

L’université de Sidney s’offre à la découverte en vidéo 360° plein écran et interactive.

De la vidéo 360° faite pour le web et non pour les casques de réalité virtuelle

Ces trois exemples montrent également que les marques expérimentent aujourd’hui la vidéo 360° pour un usage web sur ordinateur et non pas pour les casques de réalité virtuelle. Elles n’attendent pas que ces derniers soient plus répandus : elles se lancent dès aujourd’hui dans l’expérimentation de ce nouveau format pour le web seul.

Quand nos désirs d’ubiquité et de téléportation guident nos envies de technologie

Il est étonnant de constater à quel point nos désirs d’ubiquité et de téléportation ― ces deux pouvoirs dont la nature ne nous a pas doté (ou pas encore ?), et que nous rêvons donc comme des super-pouvoirs que nous attribuons à défaut à des super-héros de fiction ― nous hantent à travers nos envies de technologies et nos innovations en la matière.

Cet imaginaire est particulièrement visible dans la séduction qu’exercent (et l’effervescence que créent) depuis peu les technologies de téléprésence. On peut regrouper sous cette appellation les robots de téléprésence (dont j’ai déjà parlé à plusieurs reprises), les services de streaming vidéo en temps-réel (Periscope, Meerkat, etc.), certaines technologies de visioconference et bien-entendu les casques de réalité virtuelle, notamment lorsqu’ils permettent de visualiser des vidéos immersives à 360°, et encore plus lorsque ces vidéos sont diffusées en live.

Casques de réalité virtuelle + vidéo 360° en temps réel = téléportation ?

Une illustration flagrante en a été faite lors de la Facebook F8 Developers Conference qui s’est déroulée les 25 et 26 mars 2015 à San Francisco. Lors de cet événement, Mark Zuckerberg a annoncé que de nouvelles fonctionnalités de visionnage de vidéos 360° seraient bientôt disponibles dans Facebook et pour le casque Oculus Rift. Et pour faire la démonstration de ces services, la firme avait installé sur scène ce qu’elle a appelé une “cabine de téléportation” : dans cet espace, des spectateurs étaient invités à utiliser le casque de réalité virtuelle pour “visiter” à distance et en direct le siège social de Facebook. Ils visionnaient en réalité une vidéo 360° diffusée en direct (je ne sais pas qu’elle était la technologie de captation de la vidéo, mais je serais curieux de savoir). Ce que certains ont appelé une “live 360 VR video”.

La "station de téléportation" de la Conférence F8 de Facebook.

La « station de téléportation » de la Conférence F8 de Facebook.

Lors de cet événement, Facebook a donc réuni dans un même mouvement imaginaire les concepts d’ubiquité et de téléportation !

Et le public a suivi ! Dans cet article, le journaliste Dean Takahashi parle même de “l’application de téléportation” de Facebook. Il raconte son expérience : « La démo m’a projeté dans une vidéo en direct de la place centrale à l’intérieur du siège de Facebook à Menlo Park, en Californie. (…) C’était effectivement comme si j’avais été téléporté sur le campus. Les images de la vidéo étaient floues, mais elles étaient assez claires cependant pour que je sois en mesure de voir les gens et de reconnaître les visages « .

Identifier le lieu où l’on est projeté, ainsi que les personnes que l’on voit, tels sont deux éléments clés du sentiment de téléprésence.

Côté technologies, Dean Takahashi associe celle du live streaming video à celle de la réalité virtuelle comme produisant l’une et l’autre (ou encore mieux : lorsqu’elles sont associées) cet effet de téléportation : « Je n’irai pas jusqu’à dire que Zuckerberg a déjà rentabilisé son acquisition d’Oculus VR pour 2 milliards de dollars. Cette démo donne juste un aperçu de ce que pourra donner la réalité virtuelle ― ainsi que la vidéo en livestreaming – à l’avenir. C’est bien parti en tout cas. « 

Vidéo = illusion de téléportation  vs  Univers 3D = sensation d’immersion

La précision de Dean Takahashi est importante car les utilisateurs ne font pas autant référence à la téléportation lorsque les casques de réalité virtuelle les plongent dans un univers virtuel en 3D, tel que celui des jeux, plutôt que dans une représentation vidéo 360°.

La notion de téléportation implique le déplacement dans l’univers réel et non dans un univers imaginaire. La question n’est d’ailleurs pas tant (ou pas seulement) celle du réalisme de la représentation qui serait suposée plus forte dans la photo et la vidéo que dans les univers virtuels que celle de la représentation de lieux réels, qui existent réellement sur notre planète (ou pourquoi pas ailleurs ?) et surtout de la représentation de ce qui s’y passe en réalité, avec des gens réels qui se trouvent réellement sur place. Dans ce contexte, une vidéo à 360° est plus efficace pour restituer cela qu’une photo sphérique. Une vidéo 360° diffusée en live l’est encore plus. Et peut-être qu’une vidéo 360° live en relief le sera encore plus (Il en est question  + Voir un exemple ici) !

A l’inverse, lorsqu’ils sont plongés dans des univers 3D, j’ai l’impression que les utilisateurs parlent plutôt de sensation d’immersion. Et celle-ci est d’autant plus forte que le dispositif donne l’illusion que cet univers est non pas réel mais réaliste, et qu’il réagit en totale adéquation avec les actions de l’utilisateur. C’est ce qu’on peut lire dans cet article d’un blogueur testant le HTC Vive :

  • Adéquation des mouvements réels et des mouvements virtuels : « Ici, tout semble simple puisqu’il suffit de marcher dans une direction du monde réel pour que le personnage du monde virtuel suive cette direction. La sensation d’immersion est alors totale puisqu’on a l’impression d’être cette personne virtuelle. »
  • Réalisme de la représentation : « Les premières impressions (…) sont bonnes. Mais l’expérience n’était pas parfaite. (…) La définition de l’affichage empêche de se sentir en totale immersion lorsqu’on s’approche des objets puisque ceux-ci manquent de détails. (…) C’est problématique pour les jeux, mais également dans les applications professionnelles de réalité virtuelle qui se basent sur du photoréalisme pour donner l’impression d’immersion. Si la scène est dégradée, on aura du mal à se sentir vraiment présent. »

Finalement, on a les correspondances suivantes :

EnjeuAdhesionVR&video360

On retrouve cette distinction dans les témoignages des journalistes et blogueurs qui restituent leur expérience des casques de réalité virtuelle. Le terme de téléportation est beaucoup moins utilisé par ceux qui ont testé le HTC Vive avec les univers virtuels de Valve, que par ceux qui ont expérimenté des vidéos 360° via l’Oculus Rift. Et c’est l’inverse pour le terme d’immersion.

Dans l’article Hands on: Attempting teleportation with Google Jump Panoramic VR Videos, le journaliste pointe les défauts de la solution de Google à créer l’illusion de la téléprésence ou de l’ubiquité. Ce faisant, il montre bien que la création de cette illusion est l’effet recherché.

L’utilisation du concept de téléportation par les marques 

L’imaginaire est ce qui fait le lien entre les technologies et leur exploitation marketing par les marques, car ce que les marques utilisent à travers les technologies, c’est non seulement leur utilité, mais également les aspirations humaines que ces technologies mobilisent chez leurs utilisateurs.

Or, les technologies de téléprésence mobilisent notre désir d’ubiquité ou de téléportation.

Aussi, les hôtels Marriott ont-ils imaginé une campagne intitulée The teleporter, dans laquelle ils « téléportaient » des passants dans des univers lointains (voir la vidéo de promotion).

Lors du salon du bourget 2015, la marque ATR a utilisé quasiment le même dispositif avec la même accroche.

On trouve ainsi des usages similaires dans le tourisme, le marketing, le jeu, l’apprentissage, etc. :

Le live streaming video nous transporte ailleurs par l’urgence de l’instant

On retrouve aussi l’imaginaire de la téléportation et de l’ubiquité dans le discours autour des services de streaming vidéo en temps réel (live streaming video) tels que Periscope, Meerkat ou Younow. Il suffit par exemple de citer la page de présentation de Périscope, sur le site web du service :

“Il y a un peu plus d’un an, nous avons commencé à nous intéresser de très près à l’idée de découvrir le monde à travers le regard des autres. Et si vous pouviez littéralement voir ce que voit un manifestant en Ukraine ? Ou regarder le lever du soleil depuis une montgolfière en Cappadoce ? Cela peut sembler être une idée folle, mais nous voulions nous rapprocher au maximum de la téléportation. S’il existe de nombreuses autres façons de découvrir des événements et des lieux, nous avons constaté que la vidéo en direct est actuellement le meilleur moyen de le faire. Une photo vaut mille mots, mais la vidéo en direct peut littéralement vous transporter quelque part, comme si vous y étiez.” (C’est moi qui souligne)

Certains évoquent à ce sujet « l’ère de l’immersion mobile en temps réel ».

Un même événement filmé par deux utilisateurs de Periscope.

Cet incendie à New York a été filmé par plusieurs utilisateurs de Periscope le jour même de la sortie de l’app. Vu par de nombreuses personnes, il a été l’un des événements fondateurs du service.

Là aussi, les marques se sont emparées de cette technologie pour jouer sur ce registre. C’est le cas par exemple de Turkish Airlines, qui a retransmis en direct un vol Istanbul-New-York.

Les caméras 3D pourraient révolutionner les visioconférences

Le marketing n’est pas le seul domaine dans lequel les entreprises utilisent l’imaginaire de la téléportation ou de l’ubiquité. C’est également le cas pour certaines situations de travail, notamment les réunions et la communication à distance : “Si mes salariés pouvaient se téléporter, que d’économies de transports d’avion ou de train je ferais !”

Or, des fournisseurs de solutions d’entreprises construisent justement leur offre et leur marketing autour de ce concept. C’est le cas de Personify, dont le site web décrit ainsi la solution : “Video Conversation, With a Hint of Teleportation. Step out of the video box and into a shared virtual space.”

Personify utilise la technologie de caméra 3D développée par Intel, Intel RealSense, qui est disponible également sur son ordinateur révolutionaire Sprout. Comme l’explique cet article, “les caméras RealSense disposent de trois lentilles, une caméra 2D standard pour la photo et la vidéo, mais aussi une caméra infrarouge et un projecteur laser infrarouge. Les parties infrarouges permettent à RealSense de calculer la distance entre les objets, mais aussi de séparer des objets sur différents plans. Elles servent également à la reconnaissance faciale ainsi que celle des gestes. (…) Techniquement, RealSense est un appareil photographique plénoptique. Comprenez : un appareil photographique numérique qui utilise une matrice de micro-objectifs qui permettent d’enregistrer les informations 4D d’un flux lumineux. Ce qui permet en particulier de faire (…) du filtrage (…). En effet, RealSense saisit de multiples couches, vous pouvez ensuite appliquer un filtre noir et blanc ou une saturation lourde à chaque tranche de la trame.”

A elle toute seule, cette technologie permet de réunir une multitude d’usages et de fonctionnalités que je ne connaissais jusqu’à présent qu’à travers des appareils distincts :

    • Reconnaissance des gestes pouvant être utilisée pour le contrôle d’une interface classique, à la manière de Leap Motion ou de Kinect, ou d’une interface de réalité virtuelle, comme un contrôleur associé à un casque de réalité virtuelle.
    • Changement de mise au point d’une image après la prise de vue, à la manière de Lytro ou des applications FocusTwist ou Appareil Photo Google.
    • Application de filtres à une image, comme Instagram.
    • Mesurer des distances ou des objets présents dans une image ou devant soi.
    • Scann d’un objet ou d’une personne en 3D pour en faire un modèle ou une image 3D.
    • Reconnaissance faciale, via le scann 3D évoqué ci-dessus.
    • Aide à la conduite autonome de drones ou robots.
    • Etc. Etc.

Autant de fonctionnalités et d’usages possibles réunis dans une seule caméra intégrée à votre appareil, c’est bluffant ! (liste des appareils sur lesquels le système est implanté)

Encore mieux : j’en ai laissé une autre de côté exprès, celle utilisée par Personify ! Il s’agit d’utiliser la capacité qu’a la caméra d’Intel à identifier les niveaux de profondeur de chaque élément dans une image pour détacher un objet ou une personne située au premier plan, du fond de l’image situé au second plan, un peu comme dans la technique du tournage sur fond vert. Dans le cas de Personify, la caméra de l’ordinateur découpe donc en temps-réel l’image de son utilisateur. Elle l’affiche à l’écran de manière détourée. Le fond de l’écran peut alors être remplacé par n’importe qu’elle image, notamment une interface logicielle, par exemple PowerPoint si vous voulez faire une conférence à distance. Personify permet alors de réunir de la même manière tous les participants à la conférence. Ils s’affichent côte à côte à l’écran, détourés sur l’image de fond. On peut alors faire une réunion autour d’un même écran partagé, en ayant l’impression d’être tous côte-à-côte.

J’avoue qu’ici la comparaison avec la téléportation me paraît être plus dans le concept que dans le ressenti. C’est une sorte de téléportation par collage d’image. On est sans doute plus dans l’ubiquité. Mais c’est franchement original. Et encore une fois, la technologie Intel RealSense est franchement bluffante.

Personify réunit plusieurs personnes dans un même écran.

Personify réunit plusieurs personnes dans un même écran.

Je noterai pour terminer sur ce point, qu’Intel n’et pas le seul à travailler sur les caméras 3D. Apple a racheté la société PrimeSense en 2013. PrimeSense a notamment fourni la technologie de la première Kinect de Microsoft. Ce dernier a depuis développé sa propre technologie avec la Kinect XBox One. Enfin, Google travaille également en ce sens avec son Projet Tango. Les applications et technologies de téléprésence semblent avoir de beaux jours devant elles.

Robots de téléprésence

J’ai déjà consacré plusieurs articles aux robots de téléprésence (listés dans ce dernier article notamment). Je vous invite évidemment à les (re)lire. La comparaison avec la téléportation est évoquée par de nombreux utilisateurs, journalistes ou fabricants.

Dans le cas des robots de téléprésence « classiques », l’effet repose sur plusieurs éléments :

  • vous voyez ce qui se passe ailleurs, via la caméra sur le robot et l’écran sur votre ordinateur.
  • les personnes présentes sur le lieu voient votre image via l’écran sur le robot qui diffuse ce que filme la webcam de votre ordinateur.
  • vous pouvez interagir avec eux, par la voix notamment, via un système micros/enceintes à chaque bout de la chaîne
  • vous pouvez vous déplacer dans le lieu en commandant le robot à distance.

Pour les gens sur place, l’image de votre visage au sommet du robot donne encore plus l’impression d’un humain. D’ailleurs certains utilisateurs habillent les robots de téléprésence !

Un robot de téléprésence habillé : on se laisserais prendre au jeu !

Un robot de téléprésence habillé. Et hop, plus vrai que nature !

Finalement, dans ce cas de figure, l’impression de téléprésence est presque aussi (voire plus) fortement ressentie par les personnes sur place que par l’utilisateur à distance !

C’est peut-être pour changer cet équilibre qu’est né le projet DORA. C’était justement le sujet du dernier article que j’ai consacré aux robots de téléprésence. Ce projet explore une autre voie. Le robot ne possède pas d’écran mais une sorte de tête avec deux caméras qui font comme deux yeux. Elles permettent à l’utilisateur à distance de visualiser l’image filmée par les caméras via un casque de réalité virtuelle. Le dispositif repose également sur la synchronisation des mouvements de la tête de l’utilisateur avec ceux du robot, ce qui produit une impression très forte de téléportation pour ce dernier plutôt que pour les gens présents sur place qui ne voient pas son image, contrairement aux robots classiques.

Le robot DORA et un utilisateur

Le robot DORA et un utilisateur

Dans un article intitulé The Future of Remote Work Feels Like Teleportation, le Wall Street Journal explique que la sensation va au-delà de la téléportation pour correspondre à la sensation de se retrouver dans la peau d’un autre, ici le robot !

“DORA is a system that accomplishes a near-perfect version of a phenomenon neuroscientist Henrik Ehrsson calls the “body-swap illusion.” As I use DORA, I find myself thinking I’m inhabiting the robot’s body. As I turn around to look at my actual body, sitting at a desk and wearing a VR headset, I think “who is that guy?” Already, systems like the Beam “smart presence system” put a screen and camera on top of a simple, remote-controlled stand, creating something like a Skype robot with wheels. DORA is a natural evolution of this concept.”

Dans un autre article, le journaliste évoque “une expérience de téléprésence immersive, qui évoque la téléportation” et il cite Emre Tanirgan, l’un des porteurs du projet DORA, interviewé par le site Engadget : « [Avec DORA], vous avez l’impression d’être transporté quelque part dans le monde réel et non dans un environnement simulé. Vous voyez les gens interagir avec vous comme si vous étiez réellement sur place. Il est difficile de recréer ce type d’expérience dans un environnement virtuel pour le moment ».

C’est exactement ce que je soulignais un peu plus haut dans cet article.

Concernant l’illusion d’être dans le corps d’un autre, il faut noter que certains médecins ont essayé d’analyser ce qui se passe dans le cerveau des gens à qui ont fait subir ce genre d’expérience.

Avatars virtuels synchronisés

L’article du Wall Street Journal m’a également fait découvrir une autre technologie que l’on peut aussi associer à cette tendance. Le système développé par la société Altspace VR consiste à faire se rencontrer dans un monde virtuel les avatars 3D de plusieurs utilisateurs. Dit comme ça, le système a un petit côté réchauffé tant il fait penser à Second Life et autres mondes virtuels. C’est en grande partie vraie, mais la mise en oeuvre est ici plus élaborée puisqu’elle repose sur l’utilisation d’un casque de réalité virtuelle, comme pour DORA. La différence est qu’ici, point de robot mais des avatars dans un monde virtuel.

Comme je l’ai dit plus haut, le fait qu’il s’agisse d’un environnement virtuel me paraît moins créateur d’une illusion de téléportation. Toutefois, ce qui est intéressant ici, c’est la fonctionnalité de restitution en temps-réel sur l’avatar du mouvement des yeux des utilisateurs via un système d’eye-tracking installé dans le casque de réalité virtuelle. Le journaliste du Wall Street Journal restitue son expérience :

“One of the avatars started talking to me, and while it lacked facial expressions, I discovered something remarkable—just by virtue of our both having bodies in a virtual space, I could tell whom he was addressing, and I could even read his body language, as his robot avatar’s head tracked every movement of his actual head, even though it was thousands of miles away and, like mine, wearing a VR headset. (…) There was no question that, wherever my body was, my mind was in the made-up room and the made-up body AltspaceVR presented to my eyes and ears. Even the three-dimensional sound contributed to the illusion.”

Les yeux des avatars dans Altspace VR bougent selon l'eye-tracking des yeux des utilisateurs.

Les yeux des avatars dans Altspace VR bougent selon l’eye-tracking des yeux des utilisateurs.

Pour conclure, le journaliste fait la synthèse des technologies de téléprésence qu’il a pu tester :

“Technologies like Oblong, Personify, AltspaceVR and, in the far future, DORA all do the same thing: Create or capture some part of the illusion that you are in the same place as someone else. Inflection, body language, facial expressions, interpersonal distance and all the information that we can’t convey with current communication mediums come through loud and clear. Given how geographically diffuse our Internet-centric tools have already made many companies, it is hard to see how these technologies won’t someday transform how we work just as thoroughly as email and the telephone did.” 

Les relations sociales sont le défi ubiquitaire des mondes virtuels

Si la fonctionnalité d’eye-tracking n’est pas encore présente sur tous les casques de réalité virtuelle, elle le deviendra peut-être prochainement. Certains acteurs de poids tels que Facebook et Oculus Rift s’intéressent même à la reconnaissance des expressions du visage pour la retranscrire dans les mondes virtuels et les rendre ainsi plus réalistes du point de vue des interactions humaines. Car l’axe par lequel les mondes virtuels (à l’opposé de la vidéo 360°) semblent vouloir et pouvoir créer une illusion efficace de téléportation semble être celui de la restitution la plus réaliste possible des comportements humains. L’illusion d’ubiquité des mondes virtuels passera sans doute par leur capacité à permettre des relations sociales.

«Quand les gens se réunissent dans l'espace virtuel de High Fidelity, comme ce club, leurs avatars peuvent refléter leurs expressions faciales de la vie réelle.

« Quand les gens se réunissent dans l’espace virtuel de High Fidelity, leurs avatars peuvent refléter les expressions faciales qu’ils ont au même moment dans la vie réelle. »

C’est aussi ce sur quoi travaille actuellement Philip Rosedale, le créateur de Second Life, à travers sa nouvelle société, High Fidelity. « [Dans cet univers virtuel], explique-t-il, nous voulons que vous interagissiez avec d’autres personnes de manière émotionnellement normale ». Selon Jeremy Bailenson, responsable du Stanford University’s Virtual Human Interaction lab, « les avatars de Second Life avaient des visages assez réalistes, mais les utilisateurs n’avaient pas de moyen de les contrôler. High Fidelity a résolu ce problème. Quand j’ai récemment essayé cette technologie, ce que j’ai ressenti, c’est : « Cela donne vraiment l’impression qu’il y a une autre personne ici ».

 

Pour David Nahon, responsable du laboratoire d’immersion virtuelle (iV) de Dassault Systèmes, cela passe par 3 facteurs très bien expliqués dans la vidéo ci-dessous :

  • voir et percevoir son propre corps
  • percevoir le monde réel autour de soi tout en continuant à être dans le monde virtuel (permettre une prise en compte ou une restitution du monde réel dans le monde virtuel)
  • et enfin avoir des interactions sociales avec d’autres personnes réelles via leur avatar ou leur image

Dans cette vidéo, on voit que se mêlent en permanence des images de type univers virtuel avec des images de type vidéo, de la même manière qu’alternent des vues à la 1ère personne avec des vues à la troisième personne. Ce mix me paraît très intéressant par rapport à la création ou non d’une illusion d’ubiquité ou de téléportation.

 

Pourquoi les casques de réalité virtuelle fascinent-ils ?

Les casques de réalité virtuelle séduisent parce qu’ils combinent les réponses à plusieurs aspirations :

  • L’immersion, c’est-à-dire le fait d’être plongé au coeur d’un environnement visuel et sensible qui se substitue à l’environnement réel ou contextuel, ce qui nous permet d’oublier ce dernier l’espace d’un instant…
  • L’ubiquité, c’est-à-dire le fait d’être présent dans deux lieux à la fois, ici et ailleurs, à se transporter ailleurs sans bouger (illusion de téléportation). L’impression d’ubiquité est d’ailleurs parfois créée par des techniques d’immersion.
  • Le jeu et l’interaction que permet un univers virtuel interactif.
  • La fascination pour les représentations réalistes, qu’elles soient virtuelles ou vidéo (“c’est plus vrai que nature, on s’y croirait, c’est bluffant !”).

Ces aspirations provoquent l’adhésion et la captation des utilisateurs de casques de réalité virtuelle.

Les marques et les organisations peuvent alors utiliser et mettre à profit ces aspirations pour proposer à leurs publics des expériences… :

  • d’apprentissage
  • de jeu
  • de publicité, d’influence
  • de prévention, de prise de conscience
  • de fiction
  • etc.

J’en ai déjà présenté plusieurs dans de précédents articles.

Dans ce contexte, les casques de réalité virtuelle se distinguent des dispositifs environnementaux de type CAVE de la manière suivante : ils proposent une expérience individuelle, autonome, mobile, qui repose sur l’équipement corporel, tandis que les dispositifs environnementaux proposent une expérience statique, installée dans un lieu, mais qui laisse le corps libre de tout appareillage.