Quand nos désirs d’ubiquité et de téléportation guident nos envies de technologie

Il est étonnant de constater à quel point nos désirs d’ubiquité et de téléportation ― ces deux pouvoirs dont la nature ne nous a pas doté (ou pas encore ?), et que nous rêvons donc comme des super-pouvoirs que nous attribuons à défaut à des super-héros de fiction ― nous hantent à travers nos envies de technologies et nos innovations en la matière.

Cet imaginaire est particulièrement visible dans la séduction qu’exercent (et l’effervescence que créent) depuis peu les technologies de téléprésence. On peut regrouper sous cette appellation les robots de téléprésence (dont j’ai déjà parlé à plusieurs reprises), les services de streaming vidéo en temps-réel (Periscope, Meerkat, etc.), certaines technologies de visioconference et bien-entendu les casques de réalité virtuelle, notamment lorsqu’ils permettent de visualiser des vidéos immersives à 360°, et encore plus lorsque ces vidéos sont diffusées en live.

Casques de réalité virtuelle + vidéo 360° en temps réel = téléportation ?

Une illustration flagrante en a été faite lors de la Facebook F8 Developers Conference qui s’est déroulée les 25 et 26 mars 2015 à San Francisco. Lors de cet événement, Mark Zuckerberg a annoncé que de nouvelles fonctionnalités de visionnage de vidéos 360° seraient bientôt disponibles dans Facebook et pour le casque Oculus Rift. Et pour faire la démonstration de ces services, la firme avait installé sur scène ce qu’elle a appelé une “cabine de téléportation” : dans cet espace, des spectateurs étaient invités à utiliser le casque de réalité virtuelle pour “visiter” à distance et en direct le siège social de Facebook. Ils visionnaient en réalité une vidéo 360° diffusée en direct (je ne sais pas qu’elle était la technologie de captation de la vidéo, mais je serais curieux de savoir). Ce que certains ont appelé une “live 360 VR video”.

La "station de téléportation" de la Conférence F8 de Facebook.

La « station de téléportation » de la Conférence F8 de Facebook.

Lors de cet événement, Facebook a donc réuni dans un même mouvement imaginaire les concepts d’ubiquité et de téléportation !

Et le public a suivi ! Dans cet article, le journaliste Dean Takahashi parle même de “l’application de téléportation” de Facebook. Il raconte son expérience : « La démo m’a projeté dans une vidéo en direct de la place centrale à l’intérieur du siège de Facebook à Menlo Park, en Californie. (…) C’était effectivement comme si j’avais été téléporté sur le campus. Les images de la vidéo étaient floues, mais elles étaient assez claires cependant pour que je sois en mesure de voir les gens et de reconnaître les visages « .

Identifier le lieu où l’on est projeté, ainsi que les personnes que l’on voit, tels sont deux éléments clés du sentiment de téléprésence.

Côté technologies, Dean Takahashi associe celle du live streaming video à celle de la réalité virtuelle comme produisant l’une et l’autre (ou encore mieux : lorsqu’elles sont associées) cet effet de téléportation : « Je n’irai pas jusqu’à dire que Zuckerberg a déjà rentabilisé son acquisition d’Oculus VR pour 2 milliards de dollars. Cette démo donne juste un aperçu de ce que pourra donner la réalité virtuelle ― ainsi que la vidéo en livestreaming – à l’avenir. C’est bien parti en tout cas. « 

Vidéo = illusion de téléportation  vs  Univers 3D = sensation d’immersion

La précision de Dean Takahashi est importante car les utilisateurs ne font pas autant référence à la téléportation lorsque les casques de réalité virtuelle les plongent dans un univers virtuel en 3D, tel que celui des jeux, plutôt que dans une représentation vidéo 360°.

La notion de téléportation implique le déplacement dans l’univers réel et non dans un univers imaginaire. La question n’est d’ailleurs pas tant (ou pas seulement) celle du réalisme de la représentation qui serait suposée plus forte dans la photo et la vidéo que dans les univers virtuels que celle de la représentation de lieux réels, qui existent réellement sur notre planète (ou pourquoi pas ailleurs ?) et surtout de la représentation de ce qui s’y passe en réalité, avec des gens réels qui se trouvent réellement sur place. Dans ce contexte, une vidéo à 360° est plus efficace pour restituer cela qu’une photo sphérique. Une vidéo 360° diffusée en live l’est encore plus. Et peut-être qu’une vidéo 360° live en relief le sera encore plus (Il en est question  + Voir un exemple ici) !

A l’inverse, lorsqu’ils sont plongés dans des univers 3D, j’ai l’impression que les utilisateurs parlent plutôt de sensation d’immersion. Et celle-ci est d’autant plus forte que le dispositif donne l’illusion que cet univers est non pas réel mais réaliste, et qu’il réagit en totale adéquation avec les actions de l’utilisateur. C’est ce qu’on peut lire dans cet article d’un blogueur testant le HTC Vive :

  • Adéquation des mouvements réels et des mouvements virtuels : « Ici, tout semble simple puisqu’il suffit de marcher dans une direction du monde réel pour que le personnage du monde virtuel suive cette direction. La sensation d’immersion est alors totale puisqu’on a l’impression d’être cette personne virtuelle. »
  • Réalisme de la représentation : « Les premières impressions (…) sont bonnes. Mais l’expérience n’était pas parfaite. (…) La définition de l’affichage empêche de se sentir en totale immersion lorsqu’on s’approche des objets puisque ceux-ci manquent de détails. (…) C’est problématique pour les jeux, mais également dans les applications professionnelles de réalité virtuelle qui se basent sur du photoréalisme pour donner l’impression d’immersion. Si la scène est dégradée, on aura du mal à se sentir vraiment présent. »

Finalement, on a les correspondances suivantes :

EnjeuAdhesionVR&video360

On retrouve cette distinction dans les témoignages des journalistes et blogueurs qui restituent leur expérience des casques de réalité virtuelle. Le terme de téléportation est beaucoup moins utilisé par ceux qui ont testé le HTC Vive avec les univers virtuels de Valve, que par ceux qui ont expérimenté des vidéos 360° via l’Oculus Rift. Et c’est l’inverse pour le terme d’immersion.

Dans l’article Hands on: Attempting teleportation with Google Jump Panoramic VR Videos, le journaliste pointe les défauts de la solution de Google à créer l’illusion de la téléprésence ou de l’ubiquité. Ce faisant, il montre bien que la création de cette illusion est l’effet recherché.

L’utilisation du concept de téléportation par les marques 

L’imaginaire est ce qui fait le lien entre les technologies et leur exploitation marketing par les marques, car ce que les marques utilisent à travers les technologies, c’est non seulement leur utilité, mais également les aspirations humaines que ces technologies mobilisent chez leurs utilisateurs.

Or, les technologies de téléprésence mobilisent notre désir d’ubiquité ou de téléportation.

Aussi, les hôtels Marriott ont-ils imaginé une campagne intitulée The teleporter, dans laquelle ils « téléportaient » des passants dans des univers lointains (voir la vidéo de promotion).

Lors du salon du bourget 2015, la marque ATR a utilisé quasiment le même dispositif avec la même accroche.

On trouve ainsi des usages similaires dans le tourisme, le marketing, le jeu, l’apprentissage, etc. :

Le live streaming video nous transporte ailleurs par l’urgence de l’instant

On retrouve aussi l’imaginaire de la téléportation et de l’ubiquité dans le discours autour des services de streaming vidéo en temps réel (live streaming video) tels que Periscope, Meerkat ou Younow. Il suffit par exemple de citer la page de présentation de Périscope, sur le site web du service :

“Il y a un peu plus d’un an, nous avons commencé à nous intéresser de très près à l’idée de découvrir le monde à travers le regard des autres. Et si vous pouviez littéralement voir ce que voit un manifestant en Ukraine ? Ou regarder le lever du soleil depuis une montgolfière en Cappadoce ? Cela peut sembler être une idée folle, mais nous voulions nous rapprocher au maximum de la téléportation. S’il existe de nombreuses autres façons de découvrir des événements et des lieux, nous avons constaté que la vidéo en direct est actuellement le meilleur moyen de le faire. Une photo vaut mille mots, mais la vidéo en direct peut littéralement vous transporter quelque part, comme si vous y étiez.” (C’est moi qui souligne)

Certains évoquent à ce sujet « l’ère de l’immersion mobile en temps réel ».

Un même événement filmé par deux utilisateurs de Periscope.

Cet incendie à New York a été filmé par plusieurs utilisateurs de Periscope le jour même de la sortie de l’app. Vu par de nombreuses personnes, il a été l’un des événements fondateurs du service.

Là aussi, les marques se sont emparées de cette technologie pour jouer sur ce registre. C’est le cas par exemple de Turkish Airlines, qui a retransmis en direct un vol Istanbul-New-York.

Les caméras 3D pourraient révolutionner les visioconférences

Le marketing n’est pas le seul domaine dans lequel les entreprises utilisent l’imaginaire de la téléportation ou de l’ubiquité. C’est également le cas pour certaines situations de travail, notamment les réunions et la communication à distance : “Si mes salariés pouvaient se téléporter, que d’économies de transports d’avion ou de train je ferais !”

Or, des fournisseurs de solutions d’entreprises construisent justement leur offre et leur marketing autour de ce concept. C’est le cas de Personify, dont le site web décrit ainsi la solution : “Video Conversation, With a Hint of Teleportation. Step out of the video box and into a shared virtual space.”

Personify utilise la technologie de caméra 3D développée par Intel, Intel RealSense, qui est disponible également sur son ordinateur révolutionaire Sprout. Comme l’explique cet article, “les caméras RealSense disposent de trois lentilles, une caméra 2D standard pour la photo et la vidéo, mais aussi une caméra infrarouge et un projecteur laser infrarouge. Les parties infrarouges permettent à RealSense de calculer la distance entre les objets, mais aussi de séparer des objets sur différents plans. Elles servent également à la reconnaissance faciale ainsi que celle des gestes. (…) Techniquement, RealSense est un appareil photographique plénoptique. Comprenez : un appareil photographique numérique qui utilise une matrice de micro-objectifs qui permettent d’enregistrer les informations 4D d’un flux lumineux. Ce qui permet en particulier de faire (…) du filtrage (…). En effet, RealSense saisit de multiples couches, vous pouvez ensuite appliquer un filtre noir et blanc ou une saturation lourde à chaque tranche de la trame.”

A elle toute seule, cette technologie permet de réunir une multitude d’usages et de fonctionnalités que je ne connaissais jusqu’à présent qu’à travers des appareils distincts :

    • Reconnaissance des gestes pouvant être utilisée pour le contrôle d’une interface classique, à la manière de Leap Motion ou de Kinect, ou d’une interface de réalité virtuelle, comme un contrôleur associé à un casque de réalité virtuelle.
    • Changement de mise au point d’une image après la prise de vue, à la manière de Lytro ou des applications FocusTwist ou Appareil Photo Google.
    • Application de filtres à une image, comme Instagram.
    • Mesurer des distances ou des objets présents dans une image ou devant soi.
    • Scann d’un objet ou d’une personne en 3D pour en faire un modèle ou une image 3D.
    • Reconnaissance faciale, via le scann 3D évoqué ci-dessus.
    • Aide à la conduite autonome de drones ou robots.
    • Etc. Etc.

Autant de fonctionnalités et d’usages possibles réunis dans une seule caméra intégrée à votre appareil, c’est bluffant ! (liste des appareils sur lesquels le système est implanté)

Encore mieux : j’en ai laissé une autre de côté exprès, celle utilisée par Personify ! Il s’agit d’utiliser la capacité qu’a la caméra d’Intel à identifier les niveaux de profondeur de chaque élément dans une image pour détacher un objet ou une personne située au premier plan, du fond de l’image situé au second plan, un peu comme dans la technique du tournage sur fond vert. Dans le cas de Personify, la caméra de l’ordinateur découpe donc en temps-réel l’image de son utilisateur. Elle l’affiche à l’écran de manière détourée. Le fond de l’écran peut alors être remplacé par n’importe qu’elle image, notamment une interface logicielle, par exemple PowerPoint si vous voulez faire une conférence à distance. Personify permet alors de réunir de la même manière tous les participants à la conférence. Ils s’affichent côte à côte à l’écran, détourés sur l’image de fond. On peut alors faire une réunion autour d’un même écran partagé, en ayant l’impression d’être tous côte-à-côte.

J’avoue qu’ici la comparaison avec la téléportation me paraît être plus dans le concept que dans le ressenti. C’est une sorte de téléportation par collage d’image. On est sans doute plus dans l’ubiquité. Mais c’est franchement original. Et encore une fois, la technologie Intel RealSense est franchement bluffante.

Personify réunit plusieurs personnes dans un même écran.

Personify réunit plusieurs personnes dans un même écran.

Je noterai pour terminer sur ce point, qu’Intel n’et pas le seul à travailler sur les caméras 3D. Apple a racheté la société PrimeSense en 2013. PrimeSense a notamment fourni la technologie de la première Kinect de Microsoft. Ce dernier a depuis développé sa propre technologie avec la Kinect XBox One. Enfin, Google travaille également en ce sens avec son Projet Tango. Les applications et technologies de téléprésence semblent avoir de beaux jours devant elles.

Robots de téléprésence

J’ai déjà consacré plusieurs articles aux robots de téléprésence (listés dans ce dernier article notamment). Je vous invite évidemment à les (re)lire. La comparaison avec la téléportation est évoquée par de nombreux utilisateurs, journalistes ou fabricants.

Dans le cas des robots de téléprésence « classiques », l’effet repose sur plusieurs éléments :

  • vous voyez ce qui se passe ailleurs, via la caméra sur le robot et l’écran sur votre ordinateur.
  • les personnes présentes sur le lieu voient votre image via l’écran sur le robot qui diffuse ce que filme la webcam de votre ordinateur.
  • vous pouvez interagir avec eux, par la voix notamment, via un système micros/enceintes à chaque bout de la chaîne
  • vous pouvez vous déplacer dans le lieu en commandant le robot à distance.

Pour les gens sur place, l’image de votre visage au sommet du robot donne encore plus l’impression d’un humain. D’ailleurs certains utilisateurs habillent les robots de téléprésence !

Un robot de téléprésence habillé : on se laisserais prendre au jeu !

Un robot de téléprésence habillé. Et hop, plus vrai que nature !

Finalement, dans ce cas de figure, l’impression de téléprésence est presque aussi (voire plus) fortement ressentie par les personnes sur place que par l’utilisateur à distance !

C’est peut-être pour changer cet équilibre qu’est né le projet DORA. C’était justement le sujet du dernier article que j’ai consacré aux robots de téléprésence. Ce projet explore une autre voie. Le robot ne possède pas d’écran mais une sorte de tête avec deux caméras qui font comme deux yeux. Elles permettent à l’utilisateur à distance de visualiser l’image filmée par les caméras via un casque de réalité virtuelle. Le dispositif repose également sur la synchronisation des mouvements de la tête de l’utilisateur avec ceux du robot, ce qui produit une impression très forte de téléportation pour ce dernier plutôt que pour les gens présents sur place qui ne voient pas son image, contrairement aux robots classiques.

Le robot DORA et un utilisateur

Le robot DORA et un utilisateur

Dans un article intitulé The Future of Remote Work Feels Like Teleportation, le Wall Street Journal explique que la sensation va au-delà de la téléportation pour correspondre à la sensation de se retrouver dans la peau d’un autre, ici le robot !

“DORA is a system that accomplishes a near-perfect version of a phenomenon neuroscientist Henrik Ehrsson calls the “body-swap illusion.” As I use DORA, I find myself thinking I’m inhabiting the robot’s body. As I turn around to look at my actual body, sitting at a desk and wearing a VR headset, I think “who is that guy?” Already, systems like the Beam “smart presence system” put a screen and camera on top of a simple, remote-controlled stand, creating something like a Skype robot with wheels. DORA is a natural evolution of this concept.”

Dans un autre article, le journaliste évoque “une expérience de téléprésence immersive, qui évoque la téléportation” et il cite Emre Tanirgan, l’un des porteurs du projet DORA, interviewé par le site Engadget : « [Avec DORA], vous avez l’impression d’être transporté quelque part dans le monde réel et non dans un environnement simulé. Vous voyez les gens interagir avec vous comme si vous étiez réellement sur place. Il est difficile de recréer ce type d’expérience dans un environnement virtuel pour le moment ».

C’est exactement ce que je soulignais un peu plus haut dans cet article.

Concernant l’illusion d’être dans le corps d’un autre, il faut noter que certains médecins ont essayé d’analyser ce qui se passe dans le cerveau des gens à qui ont fait subir ce genre d’expérience.

Avatars virtuels synchronisés

L’article du Wall Street Journal m’a également fait découvrir une autre technologie que l’on peut aussi associer à cette tendance. Le système développé par la société Altspace VR consiste à faire se rencontrer dans un monde virtuel les avatars 3D de plusieurs utilisateurs. Dit comme ça, le système a un petit côté réchauffé tant il fait penser à Second Life et autres mondes virtuels. C’est en grande partie vraie, mais la mise en oeuvre est ici plus élaborée puisqu’elle repose sur l’utilisation d’un casque de réalité virtuelle, comme pour DORA. La différence est qu’ici, point de robot mais des avatars dans un monde virtuel.

Comme je l’ai dit plus haut, le fait qu’il s’agisse d’un environnement virtuel me paraît moins créateur d’une illusion de téléportation. Toutefois, ce qui est intéressant ici, c’est la fonctionnalité de restitution en temps-réel sur l’avatar du mouvement des yeux des utilisateurs via un système d’eye-tracking installé dans le casque de réalité virtuelle. Le journaliste du Wall Street Journal restitue son expérience :

“One of the avatars started talking to me, and while it lacked facial expressions, I discovered something remarkable—just by virtue of our both having bodies in a virtual space, I could tell whom he was addressing, and I could even read his body language, as his robot avatar’s head tracked every movement of his actual head, even though it was thousands of miles away and, like mine, wearing a VR headset. (…) There was no question that, wherever my body was, my mind was in the made-up room and the made-up body AltspaceVR presented to my eyes and ears. Even the three-dimensional sound contributed to the illusion.”

Les yeux des avatars dans Altspace VR bougent selon l'eye-tracking des yeux des utilisateurs.

Les yeux des avatars dans Altspace VR bougent selon l’eye-tracking des yeux des utilisateurs.

Pour conclure, le journaliste fait la synthèse des technologies de téléprésence qu’il a pu tester :

“Technologies like Oblong, Personify, AltspaceVR and, in the far future, DORA all do the same thing: Create or capture some part of the illusion that you are in the same place as someone else. Inflection, body language, facial expressions, interpersonal distance and all the information that we can’t convey with current communication mediums come through loud and clear. Given how geographically diffuse our Internet-centric tools have already made many companies, it is hard to see how these technologies won’t someday transform how we work just as thoroughly as email and the telephone did.” 

Les relations sociales sont le défi ubiquitaire des mondes virtuels

Si la fonctionnalité d’eye-tracking n’est pas encore présente sur tous les casques de réalité virtuelle, elle le deviendra peut-être prochainement. Certains acteurs de poids tels que Facebook et Oculus Rift s’intéressent même à la reconnaissance des expressions du visage pour la retranscrire dans les mondes virtuels et les rendre ainsi plus réalistes du point de vue des interactions humaines. Car l’axe par lequel les mondes virtuels (à l’opposé de la vidéo 360°) semblent vouloir et pouvoir créer une illusion efficace de téléportation semble être celui de la restitution la plus réaliste possible des comportements humains. L’illusion d’ubiquité des mondes virtuels passera sans doute par leur capacité à permettre des relations sociales.

«Quand les gens se réunissent dans l'espace virtuel de High Fidelity, comme ce club, leurs avatars peuvent refléter leurs expressions faciales de la vie réelle.

« Quand les gens se réunissent dans l’espace virtuel de High Fidelity, leurs avatars peuvent refléter les expressions faciales qu’ils ont au même moment dans la vie réelle. »

C’est aussi ce sur quoi travaille actuellement Philip Rosedale, le créateur de Second Life, à travers sa nouvelle société, High Fidelity. « [Dans cet univers virtuel], explique-t-il, nous voulons que vous interagissiez avec d’autres personnes de manière émotionnellement normale ». Selon Jeremy Bailenson, responsable du Stanford University’s Virtual Human Interaction lab, « les avatars de Second Life avaient des visages assez réalistes, mais les utilisateurs n’avaient pas de moyen de les contrôler. High Fidelity a résolu ce problème. Quand j’ai récemment essayé cette technologie, ce que j’ai ressenti, c’est : « Cela donne vraiment l’impression qu’il y a une autre personne ici ».

 

Pour David Nahon, responsable du laboratoire d’immersion virtuelle (iV) de Dassault Systèmes, cela passe par 3 facteurs très bien expliqués dans la vidéo ci-dessous :

  • voir et percevoir son propre corps
  • percevoir le monde réel autour de soi tout en continuant à être dans le monde virtuel (permettre une prise en compte ou une restitution du monde réel dans le monde virtuel)
  • et enfin avoir des interactions sociales avec d’autres personnes réelles via leur avatar ou leur image

Dans cette vidéo, on voit que se mêlent en permanence des images de type univers virtuel avec des images de type vidéo, de la même manière qu’alternent des vues à la 1ère personne avec des vues à la troisième personne. Ce mix me paraît très intéressant par rapport à la création ou non d’une illusion d’ubiquité ou de téléportation.

 

Publicités

Quand un robot de téléprésence rencontre un casque Oculus Rift…

Depuis un an environ, j’ai consacré plusieurs articles de ce blog aux robots de téléprésence (Lorsque les écrans se déplacent à dos de robots, Où nous emmènent ces marques qui font campagne à dos de robot ?, Apprendre et se cultiver à distance via des robots, De plus en plus de robots de téléprésence dans les musées). Plus récemment, je me suis intéressé aux casques de réalité virtuelle et à la vidéo immersive. Or, voici que je viens de découvrir un projet qui vise à réunir les deux technologies pour proposer des expériences de téléprésence encore plus immersives.

Dénomé DORA (Dexterous Observational Roving Automaton), ce prototype a été mis au point par des étudiants en robotique de l’Université de Pennsylvanie. Il consiste en un robot de téléprésence relié à un casque de réalité virtuelle Oculus Rift qui, non seulement permet de visionner ce que voit le robot, mais également de le commander par des mouvement de tête. L’objectif est de créer une expérience de téléprésence encore plus immersive que si l’on se contente de regarder le flux vidéo du robot sur un écran d’ordinateur.

“Fondamentalement, expliquent ses créateurs, la plate-forme DORA explore la question de ce que cela signifie d’être présent dans un espace, et comment la présence de quelqu’un affecte les gens et l’espace autour de lui « .

 

Les deux caméras du robot envoient des flux vidéo d’une résolution de 976×582 à 30 images par seconde, ce qui est en dessous des capacités de l’Oculus Rift, mais la limitation est due à des raisons budgétaires du prototype pour l’instant. Comme dans le cas d’un dispositif de réalité virtuelle classique, le grand défi est ici celui du temps de latence entre les mouvements de tête de l’utilisateur et l’adaptation en conséquence de l’image. Mais le défi est ici accentué par le fait que l’image est captée en temps réel, et qui plus est par un robot articulé, et transmise par connexion sans fil ! Chaque élément ajoute donc une difficulté supplémentaire à la chose !

 

Selon Oculus, 60 millisecondes est le délai de latence maximum tolérable par un utilisateur, tandis qu’un délai inférieur à 20 millisecondes n’est plus perceptible par la plupart des gens. L’équipe indique qu’elle a atteint actuellement un délai de 70 millisecondes, ce qui est encore trop haut mais laisse envisager une performance acceptable prochainement.

Le robot de téléprésence du dispositif DORA

Le robot de téléprésence du dispositif DORA

Selon l’un de ses créateurs, lorsque vous utilisez DORA, “vous avez l’impression d’être transporté quelque part ailleurs dans le monde réel, par opposition à un environnement virtuel calculé. Vous pouvez voir les gens qui interagissent avec vous, comme si vous y étiez. A ce jour, il est très difficile de recréer la même expérience dans un environnement virtuel. On peut penser que l’infographie 3D temps réel utilisée pour la réalité virtuelle atteindra bientôt le niveau de réalisme de notre monde, mais une autre différence essentielle est le fait que ici tout est en direct. Il y a une imprévisibilité inhérente à un système comme celui-ci où vous pourriez aller quelque part dans le monde réel et ne pas savoir ce qui pourrait arriver là où vous êtes au moment où vous y êtes.”

Alors, envie d’être transporté vous aussi ?

Via

De plus en plus de robots de téléprésence dans les musées

Voici un an, j’avais consacré un article à l’usage, naissant à l’époque, des robots de téléprésence dans les musées. Depuis, la pratique semble s’être répandue et j’aimerai revenir sur quelques exemples dont j’ai entendu parlé au cours de cette année.

Une nuit au musée… sans y être

Le plus retentissant est sans doute l’expérience After Dark proposée par la Tate Gallery de Londres. Pendant 5 jours, ou plutôt 5 nuits, du 13 au 17 Août 2014, le musée a proposé aux internautes de prendre les commandes à distance, depuis chez eux, d’un robot de téléprésence qu’ils pouvaient déplacer dans le musée désert et obscur, les lumières étant éteintes et les visiteurs partis.

L'expérience After Dark, à la Tate Galery

L’expérience After Dark, à la Tate Gallery de Londres

L’expérience a mobilisé 4 robots, pilotables via un site web dédié et dotés de projecteurs qui permettaient aux visiteurs d’éclairer les oeuvres. J’imagine que l’expérience devait être déroutante et fascinante. Se promener de nuit dans les couloirs déserts du musée revient à braver un interdit. Le projet a été conçu et organisé par le studio The Workers. Les robots ont été conçus par l’agence britannique de technologie spaciale, RAL Space. Ce projet a reçu le IK Prize 2014.

Visiter un musée malgré son handicap

En juillet 2014, le magazine Slate évoquait le cas de Henry Evans, un américain tétraplégique passionné d’art, qui a pu visiter à distance, grâce à un robot Beam, le National Museum of Australia à Canberra, le De Young Museum à San Francisco et le Computer History Museum à Mountain View, en Californie. Si Henry Evans est aujourd’hui l’un des rares handicapés à pouvoir utiliser ce robot dans ce contexte, il milite ardemment pour ne plus l’être très longtemps et faire en sorte qu’un maximum de personnes handicapées puisse bénéficier comme lui de cette technologie : “D’ici cinq ans, j’aimerais que les musées du monde entier puissent expérimenter cette technologie et qu’elle soit omniprésente dans 10 ans. Ce serait la prochaine grande démocratisation de la culture », explique-t-il.

Norio à Oiron

La France n’est pas en reste sur ce sujet, loin de là ! En effet, depuis fin 2013 déjà, le Château d’Oiron (Deux-Sèvres) permet aux handicapés moteurs qui ne peuvent pas monter au premier étage du musée de le visiter virtuellement grâce à un robot de téléprésence nommé Norio. Ce dernier a été conçu par la société française Droïds Company. Il peut être piloté par les personnes handicapées depuis une salle du rez-de-chaussée.

La Nuit des musées 2014 et ses robots Beam

L’une des expériences les plus significatives de l’année a eu lieu le 17 mai lors de la Nuit européenne des musées. A cette occasion, la Cité des Sciences de la Villette, le Grand Palais à Paris et le musée gallo-romain de Fourvière ont permis à des publics qui n’avaient pas la possibilité de se rendre dans ces lieux de s’y promener virtuellement via des robots de téléprésence. L’expérience était réservée à des publics choisis : les enfants hospitalisés de l’Institut d’Hématologie et d’Oncologie Pédiatrique de Lyon (IHOP), les visiteurs de la médiathèque de Givors et les visiteurs de la Cité des sciences et de l’industrie à Paris.

Un robot Beam dans les allées du musée gallo-romain de Fourvière.

Un robot Beam dans les allées du musée gallo-romain de Fourvière.

L’opération s’est déroulée à l’initiative de la société lyonnaise AwaBot, dirigée par Bruno Bonnel, l’ancien fondateur d’Infogrames et Infonie, aujourd’hui très impliqué dans l’univers des robots, notamment via sa société Robopolis ou le fond d’investissement Robolution Capital. Bruno Bonnel est également président du syndicat de la robotique. Awabot distribue en France les robots Beam, fabriqués par Suitable Technologies. Ce sont ces robots qui ont été utilisés lors de la Nuit des musées.

Pour en savoir plus sur l’expérience conduite au musée gallo-romain de Fourvière, vous pouvez lire cet article et visionner la vidéo qui s’y trouve.

Deux musées d’Autun testent la téléprésence

L’activisme de Bruno Bonnel et d’Awabot est sans doute à l’origine de plusieurs autres projets qui se sont déroulés en région lyonnaise récemment. En fin d’année 2014, on apprenait par exemple que le musée Rolin d’Autun avait décidé de faire l’acquisition d’un robot de téléprésence pour permettre la visite à distance de ses collections. Et en ce début d’année 2015, c’est cette fois-ci le musée d’histoire naturelle d’Autun qui teste la visite à distance via un robot de téléprésence.

L'interface de pilotage du robot Beam, lors d'une visite du Musée d'Histoire Naturelle d'Autun.

L’interface de pilotage du robot Beam, lors d’une visite du Musée d’Histoire Naturelle d’Autun.

L’inauguration du musée des Confluences

Mais l’événement qui a fait le plus parler de lui s’est déroulé lors de l’inauguration du musée des Confluences, à Lyon. Le jour de son inauguration officielle, le vendredi 19 décembre, c’est-à-dire la veille de l’ouverture au public, le musée et la société Awabot ont organisé une visite virtuelle via des robots de téléprésence pour 12 chanceux qui avaient été les premiers à s’inscrire sur la page Facebook du musée lors de l’annonce de cette opération.

Le musée des Confluences et Awabot ont organisé une visite via des robots de téléprésence.

Le musée des Confluences et Awabot ont organisé une visite du musée via des robots de téléprésence.

On peut lire un retour d’expérience de cette visite dans ce billet.

Une internaute visite le musée des Confluences grâce aux robots de téléprésence BeamPro d'Awabot.

Une internaute visite le musée des Confluences grâce aux robots de téléprésence BeamPro d’Awabot (source).

Versailles en direct

Si l’année 2014 a marqué une étape dans l’usage des robots de téléprésence dans le contexte muséal, j’ai découvert en rédigeant cet article que le Château de Versailles avait joué les pionniers en 2007 avec l’aide d’Orange. L’opérateur avait proposé à ses abonnés à la fibre optique de piloter un robot à distance pour visiter des salles du château interdites aux visiteurs. Selon le site CLIC France, grâce auquel j’ai découvert cette expérience, « le robot se déplaçait sur une trajectoire déterminée et traversait quatre pièces dans les salles Chimay du Château de Versailles. A la demande des internautes visiteurs, le robot pouvait s’arrêter devant onze points prédéfinis, accompagnés d’un commentaire audio. L’expérimentation a duré quelques mois et a abouti à la création de visites scolaires en visioconférence. Un service qui existe encore sous le nom « Versailles en direct ». »

Le robot d'Orange à Versailles, en 2007.

Le robot d’Orange à Versailles, en 2007.

 

Conclusion

Enfin, pour tous ceux que ces sujets intéressent, je vous invite à lire les billets ci-dessous, issus du même blog. Ils proposent une vision passionnante et érudite sur ce sujet :

Pour finir, je voudrais dire que ce que je trouve intéressant dans cette tendance et ces initiatives, c’est qu’elles témoignent d’une vraie volonté de rendre possibles des choses qui auparavant ne l’étaient pas, de permettre en l’occurrence à certaines personnes de vivre des expériences qu’elles ne pouvaient pas vivre auparavant. C’est sans doute un des plus beaux usages que l’on peut faire de la technologie. Une technologie aujourd’hui complètement au point pour permettre ces expériences. Des expériences qui sont donc finalement plus des expérimentations d’usages que des expérimentations technologiques.

Apprendre et se cultiver à distance via des robots

Après m’être attaché à l’usage des robots de téléprésence pour la collaboration, puis à la manière dont les marques pouvaient les utiliser pour leurs campagnes marketing, je voudrais aujourd’hui évoquer l’usage qui peut en être fait pour répondre à des objectifs culturels ou pédagogiques. Des usages qui rejoignent d’ailleurs parfois des problématiques médicales…

Commençons avec un exemple qui relève de l’usage pédagogique en réponse à une problématique médicale. Lyndon Baty est un jeune texan atteint d’une maladie immunitaire qui l’empêche de côtoyer d’autres personnes en public. Pour lui permettre malgré tout de suivre ses études et de vivre une vie la plus sociale possible, il utilise le robot de téléprésence VGo (que j’ai déjà présenté dans cet article). Il peut ainsi assister aux cours depuis chez lui, tout en pouvant poser des questions, répondre à celles qui lui sont posées ou bien discuter à distance avec les enseignants ou avec ses camarades.

Lyndon en classe... via son robot de téléprésence.

Lyndon Baty en classe… via son robot de téléprésence.

De nombreux articles et reportages ont été consacrés à ce jeune homme et à son histoire. Vous pouvez notamment lire celui-ci : Lyndon Baty and the robot that saved him et consulter les vidéos ci-dessous :

Passons maintenant à des usages qui mêlent objectifs culturels et pédagogiques.

Certaines institutions culturelles, en effet, testent les robots de téléprésence. C’est notamment le cas du National Museum of Australia, qui propose des visites guidées à distance, via deux robots de téléprésence nommés Chesster et Kasparov, l’un noir et l’autre blanc, évidemment !

Chesster, à gauche, et Kasparov, à droite; les deux robots du National Museum of Australia.

Chesster, à gauche, et Kasparov, à droite; les deux robots du National Museum of Australia.

Ces visites sont collectives : elles sont pour l’instant réservées aux étudiants et devraient prochainement s’ouvrir à d’autres publics. Elles se déroulent en présence d’un éducateur du musée qui guide les étudiants. Ceux-ci peuvent contrôler ce qu’ils veulent regarder, consulter des contenus numériques sur leur écran et interagir avec l’éducateur en répondant à ses questions.

Le robot Kasparov n’est d’ailleurs pas avare en exploits puisqu’il s’agit sans doute de l’un des premiers robots au monde à Tweeter ! Vous pouvez en effet le suivre sur son compte @Kasparbot !

Les débuts de tweetos de Kasparov le robot !

Les débuts de tweetos de Kasparov le robot !

Ce projet étonnant est le fruit de la collaboration entre le musée et l’agence nationale scientifique australienne (CSIRO). Il a obtenu le Prix de l’innovation aux ANZIA Awards 2013 (Australian & New-Zealand Internet Awards).

En France, la 12ème Biennale de Lyon, qui s’est tenue du 12 septembre 2013 au 15 janvier 2014, a organisé, les 14 et 15 décembre derniers, des visites à distance avec des robots de téléprésence VGo. Comme l’indique le site du SYROBO (Syndicat de la Robotique de Service Professionnel et Personnel), partenaire de l’événement, ces visites à distance créent paradoxalement une intimité inédite entre les visiteurs virtuels et les oeuvres :

Cette téléprésence  robotisée est une nouvelle manière d’avoir accès aux messages artistiques.  La relation à l’œuvre, analysée spontanément comme distanciée, est en fait plus intime. Le visiteur, pilote du robot, peut en effet jouer avec les zooms et les angles de prise de vue, écouter lescommentaires de l’environnement ou revenir visiter l’exposition à différentes heures du jour ou de la nuit, développant ainsi un rapport de proximité avec une installation et une lecture privilégiée. Ce don d’ubiquité apporté par le robot est aussi une nouvelle manière de participer physiquement à une manifestation car le visiteur incarné peut interagir avec les autres, recueillir ou donner des avis…

En France, il faut également citer le projet RobAIR (quel nom ! tout un programme !), qui a pour objectif de développer des robots de service open-source à coût réduit, et notamment des robots de téléprésence. RobAIR est un projet mené conjointement par des étudiants et des élèves ingénieurs de Polytech Grenoble, de l’Ensimag et du Pôle Supérieur de Design de Villefontaine. Certains d’entre eux ont notamment travaillé sur l’usage de RobAIR pour les visites virtuelles de musée, à travers le projet RobAIR@museum :

Ce que pourrait être RobAIR.

RobAIR@museum

Les interfaces de pilotages et de visionnage de RobAIR@museum.

Les interfaces de pilotages et de visionnage de RobAIR@museum.

Le pilotage de RobAIR depuis une tablette.

Le pilotage de RobAIR depuis une tablette.

Zoom et navigation dans les oeuvres depuis la tablette de pilotage de RobAIR.

Zoom et navigation dans les oeuvres depuis la tablette de pilotage de RobAIR.

Ce type de projets et d’usages des robots de téléprésence sera sans doute amené à se développer énormément dans les années à venir. Et je ne m’en plaindrai pas, tant je trouve qu’il y a là matière à vivre de formidables expériences ! Vous ne trouvez pas ?

Où nous emmènent ces marques qui font campagne à dos de robot ?

Dans mon article récent sur les robots de téléprésence, j’ai surtout décrit leur usage dans un contexte professionnel, notamment pour la collaboration en entreprise puisqu’ils représentent une évolution très intéressante de la vidéoconférence. Mais depuis, j’ai découvert que plusieurs marques les avaient également utilisés pour des campagnes marketing originales fondées sur la téléprésence.

Commençons avec la marque italienne d’eau gazeuse San Pellegrino. Pendant l’été 2013, le 16 août exactement, la division San Pellegrino Fruit Beverages a organisé une campagne intitulée Three minutes in Italy. Via sa page Facebook,  la marque proposait aux internautes de prendre le contrôle d’un robot situé sur la place de Taormina, un village typique de Sicile. Les internautes avaient le choix entre deux types d’expériences. La première leur permettait de prendre le contrôle d’un robot terrestre qui pouvait déambuler sur la place et dans les rues proches. La seconde consistait à prendre le contrôle d’un robot juché sur une perche au-dessus du village pour en voir des vues aériennes. Les deux expériences duraient 3 minutes, d’où le nom de la campagne.

Le robot aérien était peut-être plus spectaculaire puisqu’il permettait des vues aériennes. Mais le robot terrestre était certainement plus immersif et plus interactif ou social car il permettait à l’internaute-pilote de parler avec les personnes présentes sur la place. Un système de traduction instantanée était même utilisé pour faciliter la communication entre l’internaute et les personnes sur place.

On est donc très proche des robots de vidéoconférence dont j’ai déjà parlé, à cette petite différence prêt (d’après ce que j’ai pu lire, malgré les vidéos de promotion ci-contre, mais peu importe…) qu’ici le robot n’affichait pas la vidéo de l’internaute via sa webcam mais la photo de son profil Facebook, donc une image statique.

Pour autant, l’expérience semble avoir été appréciée si l’on en croit ce témoignage d’un participant sur la page Facebook de l’opération : « Great way to promote your company but also great way for us to see Sicily ».

Or, je pense que ce témoignage résume à lui seul l’intérêt d’une telle campagne pour une marque qui organise toute sa communication autour de sa terre d’origine. Il suffit pour cela de consulter le site web de la marque, où l’on découvre que cette dernière s’y présente comme « une ambassadrice italienne » et que « Live in Italian » est « le concept autour duquel se développe la communication de la marque ». Dans ce contexte, permettre à ses fans Facebook de se retrouver en Italie, par robot interposé, est donc une belle traduction de la promesse de la marque de nous donner à goûter un peu d’Italie lorsqu’on boit la boisson…

Mais la citation du participant révèle également le rôle inédit que peuvent jouer les robots de téléprésence : nous transporter virtuellement de manière très immersive, quasi nous téléporter ! Ce que souligne aussi avec humour le rédacteur d’un article qu’Adweek a consacré à cette campagne : « It’s a novel approach, and it seems only fitting that as robots take more of our jobs, they get to replace us on vacation, too » !

 

Il me paraît intéressant de noter que dans ce type d’usage, les robots de téléprésence vont plus loin que la simple consultation d’une vue 360° des antipodes dans Google Maps, Google Street View ou Google Earth : nous sommes ici aux manettes, c’est du temps réel, immersif et interactif socialement !

Three minutes in Italy

Three minutes in Italy

Cette campagne a été conçue par Ogilvy & Mather New York et l’agence en innovation Deeplocal. Vous pouvez voir plus d’images sur cette page.

Quelques jours plus tard, c’était au tour de Coca-Cola (tiens, une autre marque de boisson !) de réaliser une campagne similaire intitulée Coca-Cola Social Robot. Elle a profité pour cela du festival Summer Love organisé par la marque en Israël durant l’été 2013. A cette occasion, Coca-Cola a proposé aux internautes qui ne pouvaient pas se rendre à l’événement d’y participer à distance en prenant les commandes d’un robot, le QB d’Anybots (dont j’ai déjà parlé dans mon précédent article sur les robots). Ils pouvaient ainsi échanger avec festivaliers, participer aux jeux, animations et concerts, presque bronzer au soleil sans quitter leur écran…

Avez-vous déjà essayé de bronzer à distance avec un robot de téléprésence ?

Avez-vous déjà essayé de bronzer à distance avec un robot de téléprésence ?

 

Evidemment, ici, il n’est pas question de tourisme : ce que Coca-Cola souhaitait faire partager c’était un moment de bonheur et de fête, dans l’esprit de ce que la marque veut incarner. Et l’usage d’un robot se prêtait vraiment bien à cet objectif.

 

La campagne a été conçue par l’agence israélienne GefenTeam.

Ce qui me paraît intéressant dans ces deux campagnes, c’est qu’elles réalisent concrètement ce qu’est (en partie) une marque : à savoir la couche symbolique d’un produit ou d’une entreprise, et ce qu’elle réalise : à savoir faire sortir les clients et utilisateurs de la simple consommation ou utilisation du produit pour « les transporter ailleurs » (c’est -à-dire leur faire ressentir…) le temps de l’usage du produit : vers l’Italie ou vers la fête et le bonheur.

C’est aussi un peu, selon moi, l’un des bénéfices du digital que de permettre ces « transports », c’est-à-dire ces liens entre un lieu et un autre, une expérience et une autre, un contenu et un autre, un individu et un autre, par tous les moyens en sa présence : lien hypertexte, QRCode, vidéoconférence, videostreaming, chat, etc. Ce sont d’ailleurs des robots de téléprésence qui réalisent ici concrètement ce « transport »…

Mais on pourrait aussi imaginer un autre dispositif. En effet, ces deux campagnes me font énormément penser à la campagne Remote Control Tourist organisée pendant 5 jours, en Octobre 2013, par l’Office de Tourisme de Melbourne, en Australie. Dans ce cas précis, ça n’était pas un robot que les internautes pouvaient contrôler à distance, mais un « touriste virtuel » (il y en avait deux en réalité, un homme et une femme), équipé d’un micro et d’une caméra, qui se déplaçait ainsi à leur place, dans les lieux où on le lui demandait et faisait ce qu’on lui demandait.

 

Outre le remplacement du robot par des individus réels, l’une des différences clés de cette opération est qu’elle constitue une opération beaucoup plus sociale et collective que celles utilisant les robots. En effet, les touristes étaient ici commandés par plusieurs individus, via des messages que ces derniers laissaient sur Twitter ou Facebook, et leurs déambulations pouvaient être vues collectivement sur le site web de l’opération. Mais le parallèle est quand même très intéressant avec les campagnes utilisant les robots de téléprésence. Les vidéos issues de la campagne sont visibles sur la page YouTube de la campagne, les photos sur la page Instagram #visitmelbourne et le tout sur la page Facebook Play Melbourne.

Qu’en pensez-vous ?

Lorsque les écrans se déplacent à dos de robots

J’ai déjà eu l’occasion d’aborder dans un précédent article le projet Isobar Explorer qui utilisait un robot doté d’une caméra et d’un écran pour permettre à des candidats au recrutement de discuter avec des salariés de l’agence Hypermédia Isobar de Varsovie. Depuis, j’ai découvert d’autres robots assez similaires, que l’on pourrait classer dans deux catégories. Les premiers sont dotés d’une caméra et d’un écran. Ce sont souvent des solutions professionnelles de vidéoconférence. Les seconds utilisent un système de projection d’image et sont pensés pour un usage familial ou domestique.

1. Les robots sont-ils l’avenir de la vidéoconférence ?

Ces dernières années, plusieurs sociétés (spécialisées ou non dans la vidéoconférence) ont développé des robots dotés d’une caméra et d’un écran pour rendre les vidéoconférences plus faciles et plus souples en les rendant mobiles, créant ainsi des solutions de téléprésence.

C’est le cas de Double Robotics et de son robot Double, annoncé en 2012 puis mis sur le marché en 2013. Ce dernier ressemble à un Segway miniature doté d’une perche au sommet de laquelle figure un cadre sur lequel on peut fixer un iPad, relié au robot par Bluetooth.

Double, de Double Robotics

Double, de Double Robotics

En utilisant la caméra et le micro de ce dernier, le robot se transforme en solution de téléprésence mobile. Il peut alors être piloté depuis un autre iPad, un iPhone ou un ordinateur, via une application dédiée.

L'écran de contrôle de Double sur l'appli mobile dédiée.

L’écran de contrôle de Double sur l’appli mobile dédiée (source).

Un solution simple et souple puisqu’elle utilise un device externe (l’iPad) que beaucoup possèdent déjà. Un dispositif qui peut aussi s’avérer très ludique, comme le montre la vidéo ci-dessous :

Grand spécialiste de la vidéoconférence, Cisco de son côté a développé en 2013 un robot de téléprésence ambulant, en partenariat avec la société iRobot. Dénommé AVA500, ce dernier se pilote via une application mobile dédiée (pour tablette). Il transporte un écran intégré haute résolution de 21,5 pouces (l’écran EX60 de Cisco), une caméra HD et fonctionne avec le logiciel de vidéoconférence de Cisco.

AVA 500, le robot développé par iRobot et Cisco.

AVA 500, le robot développé par iRobot et Cisco.

Pour ceux qui veulent se faire une idée du robot en action vous pouvez visionner cette vidéo.

A lire également : Cisco et iRobot annoncent le robot Ava 500 à l’occasion du salon InfoComm.

Au-delà du modèle conçu avec Cisco, iRobot possède en fait toute une gamme de robots de téléprésence. Certains sont dédiés au monde médical, d’autres polyvalents. Certains utilisent un écran intégré, d’autres une tablette externe (lire à ce sujet : iRobot’s Ava: Have tablet, will travel)

Un robot de la gamme AVA d'iRobot, qui fonctionne avec un iPad.

Un robot de la gamme AVA d’iRobot, qui fonctionne avec un iPad.

iRobot n’a d’ailleurs pas seulement collaboré avec Cisco, mais aussi avec InTouch Health, une société spécialisée dans la télémédecine, pour développer le robot RP-Vita.

RP-Vita, d'InTouch Health

RP-Vita, d’InTouch Health

InTouch Health propose également un autre robot dédié au secteur médical : RP-7i.

Le robot RP-7i, d'InTouch Health

Le robot RP-7i, d’InTouch Health

Créée en 2001, la société Anybots s’est spécialisée dans les robots de téléprésence. Depuis 2010, elle propose le robot QB, qui ressemble beaucoup à Double avec sa base gyroscopique à 2 roues et sa longue perche où trône ce qui ressemble vaguement à une tête humaine avec un petit écran intégré.

Le robot QB, d'Anybots, en pleine action avec un beau noeud-pap'

Le robot QB, d’Anybots, en pleine action avec un beau noeud-pap’

Parmi les autres sociétés qui produisent des robots de téléprésence, on peut citer Suitable technology et son robot Beam ou encore VGo. D’autres encore existent…

Ces dispositifs offrent de nombreux avantages par rapport aux solutions de vidéoconférence fixes (dans des salles dédiées) ou personnelles (via les desktop). D’une part évidemment ils permettent des vidéoconférences dans n’importe quel lieu de l’entreprise accessible par le robot. Ils permettent ainsi, par exemple, des vidéoconférences sur le lieu même de travail des personnels. Enfin, ils permettent également de réaliser des visites à distance.

En fait, cette mobilité transforme l’expérience de vidéoconférence en véritable expérience de téléprésence. Ce robot qui se déplace et que l’on pilote, de forme presqu’humaine, c’est nous à distance. C’est sans doute pour cela qu’on les habille si facilement, comme on le voit dans la vidéo de Double Robotics ci-dessus ou sur certaines photos.

Par opposition à la seconde catégorie, l’usage de l’écran apparaît ici justifié pour au moins deux raisons :

  • l’affichage de l’image ne doit pas être dépendant de la présence ou non d’une surface adaptée à la projection. Avec un écran intégré, l’appareil est autonome quel que soit la configuration des lieux où il se déplace.

  • et il doit être possible en mouvement.

2. Des robots de projection mobile pour la maison

A l’opposé des robots de vidéoconférence professionnels, on voit également apparaître des dispositifs pensés pour un usage domestique, où le robot ne porte pas un écran mais projette une image. Cette double différence est-elle un hasard ? Certainement pas. Dans le contexte domestique, ce qui prime c’est l’effet et l’expérience plus que l’efficacité (au sens professionnel) et l’autonomie. Bien plus que l’écran (au demeurant forcément réduit sur les robots), le système de projection transforme la vision en expérience immersive, comme au cinéma, et insolite par les lieux dans lesquels il peut projeter.

S’il est un produit qui illustre à merveille cette promesse, c’est bien le robot Keecker, dévoilé voici quelques jours au CES de Las Vegas. Développé par un français, Pierre Lebeau, ancien de chez Google, Keecker est un projecteur mobile sans fil qui peut se déplacer dans la maison pour projeter sur les murs et les plafonds tout ce que normalement vous affichez sur un écran d’ordinateur : films, photos, jeux vidéos, navigation sur le web, vidéoconférence, etc.

Keecker

Le robot Keecker

Doté d’une caméra, il peut aussi vous servir à visionner ce qui se passe dans une autre pièce (un enfant qui dort par exemple) ou dans toute la maison en votre absence. Keecker est également doté de capteurs qui le transforment en objet connecté à part entière, là encore pour surveiller le bruit, la température, le CO2 ou l’humidité dans votre maison. Il possède enfin 6 haut-parleurs qui diffusent le son à 360°.

Bien que riche de fonctionnalités, il se pilote simplement à partir d’un smartphone. Et il ne néglige surtout pas l’esthétique puisque c’est un objet très design avec ses couleurs blanche et noire et sa forme ovoïde !

Bref, un bel objet, qui devrait être commercialisé en 2014. Mais attention le portefeuille !!!

Pour le reste, cette catégorie est encore à vrai dire assez vierge de produits. Je noterais juste qu’un projet similaire semble avoir été imaginé pour un usage médical : il s’agit d’associer le robot humanoïde Nao à un projecteur. Le dispositif a été testé dans le cadre du programme de recherche universitaire KSERA.

Le robot Nao avec un projecteur sur son dos pendant une conversation entre un patient du programme Ksera et un téléopérateur

Le robot Nao avec un projecteur sur son dos pendant une conversation entre un patient du programme Ksera et un télé-opérateur

D’une certaine manière, ces robots, surtout Keecker, ne sont-ils pas les descendants actuels d’un ancêtre de fiction nommé R2D2, avec son projecteur holographique ? Ou de son avatar moderne et éphémère, tel qu’on peut le voir dans cette vidéo de 2008 ? Ou bien encore de ce concept imaginé par Milad Taleghani avec des formes qui étaient très proches de celles de Keecker ?

Ils représentent en tous cas une nouvelle forme de mobilité de l’écran, non pas porté par l’homme sous forme de smartphone ou tablette, mais autonome dans ses déplacements et proposant une image projetée. Autant de différences dans le contexte qui devraient engendrer des usages et des applications différentes… qui restent à imaginer !

Vous avez déjà des idées ?