Ces lunettes qui nous font porter un nouveau regard sur le monde… (2/3)

Episode 2 : Les lunettes de réalité augmentée : les capacités

A la différence des lunettes 3D, les lunettes de réalité augmentée sont totalement autonomes de tout écran ou image spéciales. Au contraire, elles ont pour principe de fonctionner sur fond d’image réelle, de ce que l’on voit réellement et naturellement, sans la réalité augmentée, sur fond justement de réalité. Par contre, elles consistent à appliquer sur cette réalité une couche additionnelle d’informations pour en faire une réalité augmentée. Différentes technologies existent pour permettre à l’utilisateur de voir ces informations (images projetées sur la rétine, images projetées sur un verre, prisme, etc.). Peu importe pour notre propos.

Ce qui est intéressant par contre, c’est qu’en les portant, non seulement elles nous permettent de voir une réalité augmentée, mais elles nous transforment également en homme augmenté. L’usage premier de ces lunettes est en effet de doter leur porteur de capacités qu’il n’a pas sans elles. Cela peut se traduire de plusieurs manières :

  • aider les déficients (alzheimer, handicapés, etc.) en palliant leur déficience par une augmentation d’information.
  • aider certains métiers à avoir plus de capacités (automobile, médecine, techniciens…) pour augmenter leur performance professionnelle.
  • aider chacun d’entre nous dans ses activités quotidiennes pour lui fournir des informations utiles en contexte et en mode mains-libres.
  • plonger des individus dans un jeu ou une fiction qui se joue “in situ”.
  • etc.

Dans tous les cas, le principe de ces lunettes, c’est qu’on puisse les porter librement, en tout lieu et à tout moment, dehors notamment. On peut ainsi se retrouver avec ses lunettes dans la rue, parmi une multitude d’autres gens sans lunettes. Cette situation n’est pas sans poser problème : “Je vois que tu me vois différemment, je ne sais pas ce que tu fais, tu me filmes ? ça me gène, je me sens agressé, non respecté, utilisé, etc.” D’où les quelques cas de violence qui se sont produit à l’encontre de porteurs de telles lunettes :

Cette situation montre aussi qu’à la différence des lunettes 3D, que tout le monde porte en même temps, au même endroit, pour voir la même chose, et qui font donc communauté, les lunettes de réalité augmentée font rarement communauté. Elles ont même plutôt tendance à faire scission entre les individus, à les opposer, à les démarquer. Devant mon voisin qui porte ces lunettes, je me demande ce qu’il voit, je suis soit curieux, soit jaloux (impatient de les lui prendre), soit indifférent, voire même, comme on vient de le voir ci-dessus : je suis agressif. Et si je me promène en couple ou en famille, quel sens cela a-t-il que chacun ait sa paire de lunettes si c’est pour que chacun voit des choses différentes et se distraie des autres ? Il suffit ou il est préférable qu’une seule personne porte les lunettes.

Les lunettes de réalité augmentée appellent donc une motivation forte de leur usage, et qui soit comprise par autrui, soit à travers le jeu, une tâche professionnelle bien précise et en cours, ou alors pour palier un handicap.

Une illustration avec ce prototype de casque pour les professionnels du bâtiment :

 

De manière plus drôle que les exemples d’agression, on peut aussi noter que la fonction des lunettes d’augmenter les capacités de ceux qui les portent a évidemment été tournée en dérision avec des parodies qui prennent le contre-pied de cette augmentation pour montrer à l’inverse des individus diminués, qui ratent ce qu’ils entreprennent et à qui il arrive de multiples déboires :

ou

 

Il y a aussi les parodies qui jouent justement sur le décalage (dont j’ai parlé plus haut) qui peut exister entre celui qui utilise les lunettes et celui qui est en face de lui, par exemple, lors d’un entretien d’embauche quel que peut… dévoyé :

 

ou un premier rendez-vous galant :

 

D’autres parodies ici, ici ou .

Publicités

Scénarios et impacts de la digitalisation des miroirs dans les magasins connectés

Dans mon précédent article, j’ai évoqué quelques exemples d’utilisation de miroirs digitaux dans des magasins. Dans cet article, je vous propose une rapide synthèse des différents scénarios de digitalisation de ces miroirs.

On peut résumer comme suit, au jour d’aujourd’hui, les différents scénarios de digitalisation de l’objet miroir :

  • miroir utilisé comme écran :
    • soit à titre de simple interface d’affichage :
      • Affichage de l’image du monde réel devant lui (fonction de miroir classique)
      • Affichage d’images en réalité augmentée (ex : Uniqlo)
      • Affichage d’images diverses (par ex. publicité ou écran de transition)
    • soit à titre d’interface mixte commande/affichage (ex : Valley Girl, Morgan)
      • Affichage
        • Idem ci-dessus
      • Commande
        • par boutons physiques
        • par saisie tactile (ex. Pinkett)
        • via tablette adjacente (ex : Uniqlo)
  • miroir utilisé comme appareil de capture d’image :
    • avec une caméra ou un appareil photo intégré au miroir (tous)
    • avec des capteurs intégrés au miroir (ex : Uniqlo)
  • miroir utilisé comme appareil de communication connecté, pour envoyer-recevoir des données, messages, images, etc.
    • directement (ex : Morgan, Sportsgirl, Valley Girl)
    • via tablette connectée (ex : Uniqlo)
  • miroir utilisé comme appareil de consultation :
    • Catalogue (ex : Sportsgirl, Valley Girl)
    • Avis des clients
    • Contenu de marque

Ce résumé montre à quel point la définition de ce qu’on entend par “miroir interactif” n’est pas évidente aujourd’hui. Et cela risque de se complexifier encore plus par la suite. En effet, alors que la définition d’un miroir analogique est assez simple, et que les techniques qui permettent d’en construire sont assez bien identifiées et simples également, il en va tout autrement de cet “objet en cours de constitution” qu’est ce qu’on appelle aujourd’hui un “miroir digital”. Derrière ce terme, se cachent en effet différentes fonctionnalités et différentes technologies. Puisque nous venons de faire un rapide panorama des principales fonctionnalités mises en oeuvre à ce jour, voyons maintenant ce qu’il en est des technologies et des questions qu’elles posent.

Quelle technologie ?

Comme cela vient d’être suggéré, il existe aujourd’hui différentes technologies utilisées dans ces “objets en cours de constitution” qu’on appelle “miroirs digitaux”. Ces technologies peuvent être inventoriées en correspondance avec les fonctions qu’elles permettent :

  1. Technologies utilisées pour que le miroir remplisse sa fonction d’écran (interface d’affichage) réfléchissant l’image du monde réel (miroir au sens classique) :
    • miroir classique, “réel”, analogique
    • image vidéo captée par une caméra et restituée sur un écran d’affichage
  2. Technologies utilisées pour que le miroir remplisse sa fonction d’écran (interface d’affichage) affichant des informations qui s’ajoutent au monde réel (réalité augmentée) :
    • réalité augmentée
  3. Technologies utilisées pour que le miroir remplisse une fonction d’interface de commande :
    • interface tactile sur la surface du miroir
    • appareil de commande adjacent (tablette tactile, clavier de commande…)
  4. Technologies utilisées pour que le miroir remplisse la fonction d’appareil de capture d’images :
    • caméra ou appareil photo intégrés au miroir
    • capteurs intégrés au miroir (ex. : Kinect)
  5. Technologies utilisées pour que le miroir remplisse la fonction d’appareil de communication connecté :
    • connection directe à internet
    • connection à tablette connectée à internet

Miroir “réel” ou simili miroir ?

L’alternative indiquée point 1 ci-dessus entre les différentes technologies utilisées pour que le miroir remplisse sa fonction d’écran réfléchissant l’image du monde réel est une alternative très forte : le miroir interactif conserve-t-il un miroir classique, “réel”, analogique, ou se contente-t-il d’être une image vidéo captée par une caméra ? Clairement, le comportement des deux technologies n’est pas du tout le même. L’une des principales différences me paraît être l’angle de “vue” : pour le miroir analogique, il correspond à une demi-sphère dont la surface du miroir coïncide avec le fond plat, pour le miroir-vidéo, il se limite à l’angle de vue de la caméra, qui est le plus souvent beaucoup plus réduit. Il y a là une différence fondamentale. L’autre différence fondamentale est qu’aux yeux des utilisateurs l’image analogique d’un miroir classique ne triche pas, alors que celle d’une image vidéo (donc perçue comme “artificielle” ou “reconstruite”) peut tricher.

L’autre différence est la performance de l’image en termes de précision et d’immédiateté de la restitution visuelle. Ces deux points peuvent s’améliorer via les progrès technologiques, au point de singer les performances d’un miroir classique de telle sorte que la différence soit imperceptible pour l’utilisateur.

Un bon exemple du fait qu’il ne faut pas se méprendre sur l’emploi du terme “miroir interactif” est le dispositif installé par Prada dans l’un de ses magasins de New-York. Intitulé Digital Mirrors, ce dispositif est cependant clairement une animation artistico-ludique et n’a pas grand chose à voir avec les miroirs interactifs dont je parle dans cet article et le précédent. Voir la vidéo ci-dessous :

Le sens et l’impact de la réalité augmentée

Un autre point important est l’ajout ou non d’une fonction de réalité augmentée. Cette fonctionnalité est clairement l’un des grands enjeux des miroirs interactifs. Elle peut avoir un impact considérable sur deux des trois enjeux clés cités au début du précédent article, à savoir :

  • renouveler, améliorer, modifier, “augmenter” l’expérience client en magasin, dans un but d’utilité (aide à la vente) ou de plaisir (ludification, poétisation et autres réenchantements de l’acte d’achat)
  • apporter un surplus d’informations ou une plus grande pertinence de celle-ci, à l’utilisateur ou à la marque.

Concernant le premier enjeu, la réalité augmentée nous ramène au rôle du miroir dans l’acte d’achat. C’est un objet lié à l’acte d’essayage, qui projette l’acheteur dans l’usage futur du produit. Cet acte d’essayage est déterminant dans la mesure où il fait le lien entre :

  • le mode de relation que nous avons avec les objets que nous ne possédons pas encore et que nous désirons, à savoir une relation aux signes attachés à cet objet (signes créés par la publicité, par la société, par nos proches, par les médias…),
  • et le mode de relation que nous avons aux objets que nous possédons, à savoir une relation fondée sur l’usage et la représentation.

L’essayage est ce moment où “un bout d’usage” m’est accordé fugacement avant même que je possède l’objet. Comme ce moment est fugace, l’essai est souvent un moment un peu stressant : “Est-ce que je fais bien de faire cet achat ? Quel modèle choisir ?” C’est là où les fonctions de socialisation de l’essayage sont primordiales, car elles permettent de déstresser et de mettre en relation les signes sociaux associés à cet objet que nous ne possédons pas encore (l’avis de nos proches en général) et l’usage que certains peuvent déjà en avoir (l’avis de nos proches qui possèdent déjà l’objet). Mais c’est là aussi où la réalité augmentée est importante également puisqu’elle nous aide à nous projeter dans l’usage futur en rendant l’image plus concrète et surtout personnalisée, et elle nous aide à faire notre choix parmi toutes les possibilités qui nous sont offertes.

Comme c’est un sujet vaste et important, j’aurai l’occasion de revenir ultérieurement sur l’importance de l’acte d’essayage et les enjeux de sa digitalisation.

Pourquoi des écrans et des interfaces transparents ? Pour le spectacle et la contextualisation de l’information !

Pourquoi utiliser des écrans transparents ? Pourquoi créer des interfaces transparentes ? J’ai consacré de nombreux articles récents à expliquer que nous ressentions une fascination pour ce type d’écrans qui nous plongeaient dans certaines capacités fascinantes de maîtrise de notre environnement. J’aimerai compléter cette explication en identifiant aujourd’hui ce qui apparaît selon moi comme les deux grands bénéfices de ces écrans et interfaces en termes d’usage : l’aspect spectaculaire d’un côté et la contextualisation de l’information de l’autre.

Le premier point qui me paraît intéressant, c’est que les écrans transparents sont de formidables vecteurs de spectacle. Quelqu’un qui utilise un écran transparent, surtout quand il est tactile, c’est tout de suite un spectacle !

La parfaite illustration de cette caractéristique, c’est l’usage qu’en font les fabricants de tables de mixage de DJ.

Prenez la description de la console transparente QNQ sur son site internet :

QNQ est une console multitouch de 47 pouces qui modifie profondément la relation entre le DJ et son public. L’apparence visuelle époustouflante de QNQ attire le regard du public et permet au DJ de partager avec son audience l’expérience d ‘”être un DJ” . Elle crée un spectacle intime et interactif, où le public arrive à regarder et sentir tout ce que touche le DJ.

L’appareil peut également être un moyen amusant et interactif pour les marques de faire connaître leurs produits et de toucher directement un public engagé.

Le site QNQ possède d’ailleurs des photos qui restituent bien cette capacité de la console à créer une expérience spectaculaire. Sur l’une d’elle on peut d’ailleurs lire “Looks matter”.

La console tactile transparente QNQ

La console tactile transparente QNQ

La console en action :

Même argumentaire exalté sur le site de Smithson Martin à propos de leur console transparente Emulator Dual View Screen :

C’est l’expérience la plus révolutionnaire de ces 30 dernières années pour les artistes de scène ! DVS Emulator est le premier système de contrôle MIDI réellement multitouch qui permet à la foule, grâce à un écran tactile transparent géant, de voir exactement ce que fait l’artiste.

L’art du DJ intègre désormais les jeux de lumières des clubs, c’est un nouveau niveau de performance !

Emulator peut également être utilisé comme un pupitre multitouch ou un outil de présentation pour des réunions ou des conférences. Il rend les événements d’entreprise plus interactifs car le pupitre est transparent ce qui permet au public de voir à travers tout en regardant le présentateur. L’attention du public est accrue et les présentateurs se sentent soutenus par cette nouvelle technologie !

Je crois que ça se passe de commentaires !!! Par contre, si vous voulez des images, on en trouve sur le site de l’agence d’événementiel A-BLOK, qui organise des soirées avec ce type de matériel :

Vous trouverez une multitudes d’autres vidéos sur YouTube si vous le souhaitez.

Avec ces pupitres interactifs transarents, A-BLOK organise aussi des performances de digital live painting :

Là aussi, si ça vous intéresse, d’autres vidéos de digital live painting sont visionnables sur YouTube.

Enfin, elle propose également ce matériel pour des séminaires et conférences :

A-BLOK_Pupitre_Interactif_Ormes2-809x539

Le pupitre transparent utilisé lors d’une conférence

Une autre illustration flagrante du côté spectaculaire des écrans transparents, c’est la fameuse démo d’un dispositif multitouch par Jeff Han lors d’un TED talks en 2006. Le pupitre était transparent, ce qui accentuait l’aspect spectaculaire de la démo :

Passons maintenant des écrans aux interfaces transparentes. Même sans écran, ces dernières ont elles aussi des capacités surprenantes à créer du spectacle. L’une des meilleurs illustrations de cette caractéristique me paraît être la fameuse vidéo de Hans Rosling où il explique en 4mn le progrès des différents pays du monde au cours des 200 dernières années :

Dans cette vidéo, le dispositif de transparence (appelez ça réalité augmentée, motion design ou ce que vous voulez, peu importe…) n’apporte rien à l’information en soi. Hans Rosling aurait tout aussi bien pu faire la même démonstration avec un dispositif plus classique, comme il l’a fait par exemple lors d’un TED Talks. Par contre, cela donne une dimension éminemment spectaculaire à la vidéo et à la démonstration. Et je ne veux pas seulement parler de l’effet Whaouh que peut déclencher, la première fois qu’on le voit, ce qui peut apparaître ici comme une innovation et qu’on ne ressent plus quelque temps après. Je veux parler de la fascination que crée la superposition du speaker et des données, l’aspect lumineux des signes graphiques que l’on retrouve souvent dans les interfaces transparentes et finalement la danse que composent ensemble l’animation des données et les mouvements du speaker !

Pour être précis, je n’oublie pas que le succès de cette vidéo tient autant au fond qu’à la forme, c’est-à-dire à la performance de l’analyse des données et à leur explication aussi synthétique et pédagogique en 4 mn !

Quoi qu’il en soit, cette dimension spectaculaire des interfaces et des écrans transparents me semble être également une explication au succès de l’utilisation des (pseudo-)hologrammes dans les spectacles et les défilés de mode, dont j’ai déjà eu l’occasion de parler dans un précédent article.

Enfin, puisque j’en suis à évoquer des sujets que j’ai déjà abordés, cette capacité à créer du spectacle est également, selon moi, ce qui fait que les publicités et les films de science fiction raffolent autant des écrans et des interfaces transparentes. Certes, il y a la fascination pour la transparence en soi et ce qu’elle signifie, comme je l’ai déjà expliqué dans ces précédents articles, mais s’ajoute aussi à cela selon moi le côté spectaculaire des images ainsi créées, comme je l’ai d’ailleurs déjà souligné à la fin de ce même article. C’est particulièrement vrai selon moi dans le film Iron Man, notamment dans la scène où il manipule un plan de ville sur une interface hologrammique :

Dans cet extrait, comme pour la vidéo de Hans Rosling, on est fasciné par la danse que composent à l’écran les mouvements de l’interface et ceux de l’acteur, accentués par les mouvements de caméras. C’est une vraie chorégraphie des corps et des signes rendue possible par la transparence !

Voilà pour la capacité des écrans et interfaces transparentes à créer du spectacle.

L’autre point que je voulais aborder est leur capacité à contextualiser l’information.

Le premier exemple auquel je pense est la réalité augmentée. Son principe même repose sur la superposition des signes à une image de la réalité. Qu’on soit donc dans une transparence réelle ou simulée, la réalité augmentée n’est possible que par la transparence. Or, à quoi sert ici la transparence ? A superposer l’information à ce que l’on voit en un lieu donné et dans une direction donnée. Et dans cette situation, “ce que l’on voit en un lieu donné et dans une direction donnée” nous est donné par le contexte, nous le subissons, nous l’explorons, tandis que l’information nous est fournie par un appareil et un système d’information, qui disposent de caractéristiques qui mettent en relation cette information avec l’environnement réel, qui relient donc le virtuel au réel, le sémiotique au réel.

réalité_augmentée

La transparence est une caractéristique clé de la réalité augmentée

Dans le cas des réfrigérateurs à porte transparente dont j’ai déjà parlé, l’intérêt de la transparence est notamment de pouvoir mettre l’information en contexte avec ce qui se trouve à l’intérieur du réfrigérateur, comme on peut le voir sur cette vidéo :

Mais la transparence n’agit pas seulement dans la mise en relation de l’information issue d’un appareil avec l’environnement de cet appareil et de son utilisateur : elle peut aussi être utilisée pour contextualiser l’information au sein d’une interface, sur un même écran, comme l’explique cet article de Mashable, à propos de l’interface graphique d’iOS 7, le nouvel OS de l’iPhone :

Le nouveau design plat, qui abandonne la vieille esthétique skeuomorphique d’iOS, est une véritable merveille. Jony Ive s’est surpassé en créant des couches de conception translucides de telle sorte que lorsque votre clavier s’affiche à l’écran, vous pouvez toujours avoir une idée de ce qu’il y a en dessous

D’ailleurs, on peut lire le même argument sur le site d’Apple :

Des couches fonctionnelles distinctes contribuent à donner de la profondeur et à instaurer de l’ordre et de la hiérarchie. L’effet de transparence permet d’avoir une meilleure perception du contexte.

A défaut d’avoir encore le nouvel iOS sur votre iPhone, vous pouvez avoir un aperçu de ce que ça donne sur cette page d’Apple qui propose des animations de certaines fonctionnalités de l’OS.

Un aperçu d'iOS7

Un aperçu d’iOS7 où les couches inférieures apparaissent de manière floue à travers la couche supérieure

Plutôt que de transparence, il s’agit en fait d’un aspect translucide des différents calques : la transparence est très floutée. On voit cet aspect à l’oeuvre sur les menus du bas lors du défilement des contenus ou lors de l’affichage du clavier, par exemple pour l’app Messages.

Il existe également sur certaines apps des effets de transparence légèrement différents, voire inattendus, mais diablement intéressants. C’est le cas notamment de l’app Météo, qu’Apple a délibérément mise en avant dans sa communication autour du nouveau design de l’OS. Dans cette app, des animations se jouent en image de fond, sous les textes d’information, qui sont donc sur une couche totalement transparente en dehors de la présence graphique des signes.

Une animation est présente sur cette page du site d’Apple qui permet de visionner cet effet.

Les différents effets graphiques de l'app Météo d'iOS7

Les différents effets graphiques de l’app Météo d’iOS7

Ici, l’information n’est pas vraiment mise en contexte, elle est illustrée. Une image (un signe visuel cherchant à ressembler à une réalité tangible) s’ajoute à des signes linguistiques (textes) et iconiques (symboles graphiques liés par une ressemblance à ce qu’ils représentent). Cette illustration n’apporte aucune information supplémentaire, si ce n’est montrer ce qu’est de la pluie à quelqu’un qui n’en aurait jamais vu !! En fait, elle est totalement redondante par rapport au texte et aux symboles. Elle se contente juste d’ajouter de l’immersion à l’information.

Apple va cependant plus loin dans son interprétation de cette animation. Sur la même page que celle citée tout à l’heure on peut lire :

Les interactions sont dynamiques, les animations cinématographiques, et l’ensemble prend vie de façon inattendue, quoique parfaitement naturelle. Ouvrez, par exemple, l’app Météo et vous comprendrez tout de suite. La grêle s’abat sur le texte, tandis que la brume le recouvre partiellement. Les orages s’annoncent par des nuages et des éclairs. Maintenant, consulter la météo en ligne, c’est un peu comme regarder par la fenêtre. (c’est moi qui souligne) (source)

Cette dernière phrase mérite le détour : pour Apple, en proposant des animations en fond d’écran, l’app Météo permet de voir sur son écran ce que l’on peut voir au même moment autour de soi. C’est donc une sorte de transparence par métaphore ! “C’est un peu comme regarder par la fenêtre !”

Il est quand même étonnant, alors qu’Apple revendique l’abandon du skeuomorphisme dans iOS7, qu’il mette ainsi en avant dans une app du même OS des signes qui fonctionnent eux aussi par ressemblance avec la réalité matérielle. Chassez le naturel, il revient au galop !

Voilà en tous cas qui clôt cet article. Je terminerai juste en rappelant que dans un article récent, j’avais proposé une méthode d’analyse des plans des interfaces. Je trouve que le propos de la seconde partie de cet article sur la contextualisation de l’information par la transparence se prête particulièrement bien à une analyse par couches des interfaces concernées. J’aurai donc l’occasion d’y revenir dans de prochains articles. Alors à bientôt !

Comment analyser les interfaces transparentes ?

Dans les articles récents que j’ai consacré à la transparence dans les technologies digitales, je me suis surtout intéressé aux rêves de transparence des concepteurs d’appareils ou d’interfaces. Dans cet article, à l’inverse, je voudrais m’intéresser non plus au rêve mais à la réalité de la transparence dans ces appareils et ces interfaces. Et la question que je me pose est de savoir comment on peut analyser cette transparence.

Pour analyser la transparence dans les interfaces, je propose de découper celles-ci en 4 plans ou couches (l’équivalent du mot anglais layer, utilisé justement dans les logiciels graphiques) selon le schéma ci-dessous :

  • Le plan du signe visuel (texte ou signe graphique – icône, flèche…)
  • Le plan du fond sur lequel s’affiche le signe
  • Le plan de l’image qui peut apparaître sous le fond
  • Le plan du support matériel

À ces 4 plans inhérents aux interfaces, j’ajoute les deux plans suivants, qui lui sont extérieurs mais qui peuvent faire système avec eux :

  • Le plan des objets matériels qui peuvent se trouver derrière (il eut y avoir autant de plans que d’objets)
  • Le plan de l’horizon visuel au-delà duquel il n’y a rien pour la vue à un moment donne (il n’y a toujours qu’un plan de ce type à un instant donne et dans une direction)

Si on les représente visuellement, ça donne le schéma ci-dessous :

Schéma des plans de transparence

Schéma des plans de transparence

Ces plans :

  • Sont des plans “logiques” ou “méthodologiques” qui s’inscrivent dans un “cadre”
  • Ne sont pas forcément présents
  • Peuvent être présents plusieurs fois
  • La présence d’un plan peut être physique ou représentée.
    • Par exemple, le plan de l’image est un plan physique, dans lequel plusieurs plans peuvent être représentés.
  • Un même objet peut correspondre tantôt à un plan tantôt à un autre
  • Les plans peuvent varier de 100% opaque à 100% transparent avec toutes les nuances intermédiaires possibles.
  • La transparence peut être réelle ou représentée-simulée.
    • Par exemple, dans une vitrine ou un hologramme, le plan du support est réellement transparent, alors que dans le cas de la réalité augmentée ou de l’opération mercedes-écologie, la transparence du support est simulée par le fait que le plan de l’image a le même contenu que le plan des objets et de l’horizon tout en donnant l’impression d’être fixe avec lui.
  • Les plans peuvent être fixes les uns par rapport aux autres, ou dissociés et capables de mouvement l’un par rapport à l’autre (glissement).
    • Par exemple sur une page de roman ou une affiche, les plans sont fixes les uns par rapport aux autres, alors qu’au cinéma ou sur une page web, les plans peuvent être dissociés.

Analysons quelques dispositifs selon cette grille de lecture. Pour chaque plan nous pourrions dire :

  • S’il est présent ou absent
  • Si la présence est physique ou représentée
  • S’il est unique ou multiple
  • Son degré de transparence
  • Si la transparence est réelle ou représentée
  • S’il est dissocié ou fixe par rapport aux autres plans

Commençons tout simplement par une page de roman dans un livre imprimé.

Schéma des plans de transparence dans un livre imprimé.

Schéma des plans de transparence dans un livre imprimé.

Voyons maintenant les plans de transparence d’une vitrine de magasin.

Schéma des plans de transparence d'une vitrine de magasin.

Schéma des plans de transparence d’une vitrine de magasin.

La même analyse pour un lanceur Android tel que Chameleon launcher.

Les plans de transparence d'un lanceur Android tel que Chameleon Launcher

Les plans de transparence d’un lanceur Android tel que Chameleon Launcher

Et enfin, les plans de transparence d’une application de réalité augmentée :

Les plans de transparence d'une application de réalité augmentée.

Les plans de transparence d’une application de réalité augmentée.

Voilà. Qu’en pensez-vous ? ça vous paraît pertinent ? N’hésitez pas à me faire part de vos commentaires.

En tous cas, j’essaierai de réutiliser ces schémas dans de prochains articles…

De la transparence à l’immatériel : imaginer des signes sans écran

D’une certaine manière, vouloir créer des écrans transparents (comme nous l’avons vu dans de précédents articles : ici, , , et ), c’est sans doute vouloir aussi que les signes s’affichent sans écran… Ou tout au moins, vouloir (se) donner cette illusion, car il y a bien encore un écran, mais transparent…

Les écrans transparents permettent en effet d’afficher les signes en faisant oublier leur support pourtant nécessaire : l’écran. Avec eux, les signes se détachent de leur condition matérielle et exhaussent en cela un rêve ancestral de l’homme. En ne laissent voir que le signe et pas le support du signe, les matériaux transparents font oublier la matière et donnent l’impression à l’homme de plus de liberté.

C’est en partie, je crois, la raison pour laquelle la réalité augmentée est un symbole si fort de modernité : parce qu’elle est l’expression exacte d’un signe affiché sur une transparence.

Il suffit pour s’en convaincre de regarder les représentations que certains artistes ou que le marketing font de la réalité augmentée. Elles accentuent ce trait en donnant l’impression que la réalité augmentée n’a pas besoin d’écran, que les signes ne s’affichent pas sur un écran mais flottent librement dans l’espace, comme on peut le voir sur ces “anciennes” (!) vidéos “d’anticipation” humoristique de la réalité augmentée :

Il existe au moins deux types de réalité augmentée. Celle qui utilise la géolocalisation et le gyroscope du smartphone pour afficher des signes sur l’image de l’écran alors que celle-ci représente ce que l’on voit à l’oeil nu derrière (utilisation du smartphone comme appareil de visée (lien)). Et celle qui utilise la reconnaissance d’un signe par la caméra de l’ordinateur pour afficher sur l’écran de celui-ci une image en surimpression de l’image filmée par la caméra. Dans les deux cas, cela crée l’impression que les signes ou les images affichés flottent dans l’espace, sans écran. Dans les deux cas, c’est parce que l’image sur l’écran est filmée en temps réel et affichée dans le même contexte que la réalité qu’elle filme : on oublie donc l’image pour croire que c’est la réalité elle-même.

Réalité augmentée par reconnaissance de tag : l'image flotte dans l'air devant l'utilisateur.

Réalité augmentée par reconnaissance de tag : l’image « flotte dans l’air » devant l’utilisateur.

C’est aussi ce que montre cette courte vidéo :

Ou encore celle (prise au hasard) de l’application de réalité augmentée de General Electric.

Le magazine Esquire a quant à lui été redondant en montrant dans l’application elle-même des signes flottants autour du personnage :

Au-delà des applications de réalité augmentée, rêver à des signes sans écran est une tendance que l’on retrouve dans de nombreux contenus récents, et notamment des films, qu’ils soient publicitaires, documentaires, institutionnels, d’information ou autres. Les signes (surtout les textes, parfois les images) y apparaissent flottants dans l’air, comme s’ils n’avaient pas besoin d’écran pour s’afficher. C’est notamment le cas dans les films très esthétiques de Dimitris Ladopoulos :

 

 

Depuis le numérique, le motion design et la réalité augmentée, les signes, et notamment les textes, se rêvent de plus en plus libres par rapport à leur support matériel d’inscription normalement nécessaire.

Je rapprocherai cet usage de la volonté de certains artistes, designers ou créateurs de créer des représentations (c’est-à-dire d’afficher des signes) sur des supports les plus immatériels possibles.

C’est notamment le cas avec ce film très poétique intitulé Love is in the air, où des signes sont projetés sur la buée soufflée par deux amoureux :

 

J’interprète aussi de la même manière ce travail très minimaliste mais ô combien poétique de Brian Maffitt, qui a filmé de la lumière projetée sur des flocons de neige qui tombent :

De la buée, de la neige : même ce qui paraît le plus immatériel peut servir d’écran…

Pour finir, j’aimerai vous montrer la vidéo ci-dessous, qui d’une certaine manière prend le chemin inverse de ce que je viens de décrire puisqu’elle montre des personnes qui essaient de faire apparaître ce qui normalement est invisible, en l’occurrence des ondes Wi-Fi. Ils cherchent donc à afficher l’invisible, mais le résultat donne une impression d’affichage sur de l’immatériel puisque le tout n’est restitué qu’à travers des photos à long temps d’exposition d’un dispositif mobile qui créé une impression de surface plane d’affichage. Il vaut mieux regarder, ce sera plus simple à comprendre…  :

Voilà pour aujourd’hui ! Mais on n’en n’a pas fini avec la transparence car plus j’avance sur ce sujet plus je lui trouve des ramifications interessantes ! Rendez-vous donc bientôt pour un prochain article sur le sujet… (ou sur un autre sujet entre temps, qui sait ?)

 

Vitres interactives : des prototypes aux produits

Au-delà des visions prospectives, des visions marketing et des films de fiction, certains fabricants essaient de développer des prototypes de vitres interactives.

Intel a développé en 2010 un prototype de vitre interactive pour magasins, en collaboration avec l’agence Frog pour le design :

Le prototype de vitre interactive pour magasins d'Intel - Source

Le prototype de vitre interactive pour magasins, d’Intel

Je cite Frog pour l’explication du fonctionnement du dispositif :

« Sur le côté droit, il y a un écran couleur LCD haute résolution de 70 pouces qui joue des animations et des publicités en boucle. Sur le côté gauche, c’est un panneau translucide à travers lequel les clients peuvent voir les rayons du magasin qui se trouvent derrière. Dès qu’un client s’approche, une petite caméra disposée en haut du panneau reconnaît la taille et le sexe de la personne et peut superposer des informations sur l’écran translucide de telle sorte qu’elles pointent vers les articles des étagères derrière. Cet affichage en mode « réalité augmentée » peut ainsi mettre en évidence des vêtements dans la taille de la personne ou des articles qui sont en vente. »

La vitre translucide de gauche affiche des informations en mode réalité augmentée - Source

La vitre translucide de gauche affiche des informations en mode réalité augmentée

A propos de cette vitre, un blog a pu parler de « mystic shopping experience ». C’est le signe selon moi de la force que représente l’impact imaginé d’un usage réel et concret d’une interface transparente.

Au-delà de l’intérêt du dispositif, notez au passage que là encore, puisqu’on est dans le domaine du prototype et non de la vision prospective, pour montrer le fonctionnement de la vitre, les personnages sont vus de dos, interagissant avec les signes sur l’écran. J’ai trouvé une image où la perspective est inversée puisque l’on voit un client-utilisateur de face de l’autre côté de la vitre. Cela permet d’insister sur le côté de transparent de l’interface, ou sur le côté théâtral du dispositif dans le magasin, mais cela ne permet en rien de comprendre son fonctionnement. Dans les vues ci-dessus, la vitre se fait oublier et on se concentre sur ce qu’elle permet de faire, sur les signes et leur utilité. Dans la vue ci-dessous, c’est au contraire la vitre qui est exposée, presque comme dans une oeuvre d’art dans un musée ou une galerie autour de laquelle les gens tournent. la signification de l’image n’est pas du tout la même.

La vitre interactive d'Intel trône au milieu du magasin.

La vitre interactive d’Intel trône au milieu du magasin.

Plus qu’un prototype, le fabricant de kiosques tactiles et totems numériques BrandTouch, a mis en vente son premier totem digital transparent en 2011. L’argument mis en avant ici est l’expérience immersive créée par l’écran transparent.

Lumina, le totem d'affichage digital transparent de la société BrandTouch.

Lumina, le totem d’affichage digital transparent de la société BrandTouch.

 

Quittons maintenant le monde des magasins pour celui de l’automobile.

General Motors a lancé un projet nommé WOO, pour Windows Of Opportunity, qui consiste à rendre interactives les vitres arrières des voitures.

 

Le projet a démarré sous forme de concours organisé par GM auprès des étudiants du laboratoire Future Lab du Bezalel Academy of Art and Design de Jérusalem. Selon Tom Seder, de General Motors :

« jusqu’à présent, l’utilisation d’écrans interactifs dans les voitures a été limitée au conducteur et au passager avant. Mais nous voyons une opportunité à proposer une interface digitale conçue spécifiquement pour les passagers arrière. Ces fenêtres intelligentes capables de répondre à la vitesse du véhicule et à sa localisation pourraient augmenter les visions du monde réel avec leurs fonctionnalités interactives dans une optique éducative ou de divertissement. »

Evidemment, le contexte d’utilisation de la voiture laisse imaginer de multiples usages pour les applications qui pourraient fonctionner sur un tel support : se renseigner sur ce que l’on voit, jouer, dessiner, envoyer des messages, prendre des photos… Ici, la transparence est un gage de créativité sans fin car elle relie l’intérieur du véhicule avec l’extérieur et permet ainsi une multitude de jeux possibles de superpositions, de juxtapositions, d’interrogations, de dialogues, etc. On peut par exemple jouer avec ce qui est à voir à travers la vitre. Qui plus est, la situation « captive » du passager à l’intérieur du véhicule pendant tout le voyage, donne un temps d’utilisation du dispositif qui offre d’incroyables possibilités. Bref, voilà un projet qui fait littéralement rêver.

Rêver, c’est d’ailleurs ce que sait particulièrement bien faire le collectif japonais CSP-Salad. Et je ne peux ici m’empêcher d’évoquer l’installation ci-dessous, mise en place dans un train, qui rappelle fortement le projet WOO :

 

Très sérieusement, je pense que s’il est un acteur qui tirerait le plus grand bénéfice (de ses voyageurs) à rendre ses vitres interactives, c’est bien la SNCF ! A bon entendeur…

Au passage, General Motors n’est pas seul à se lancer dans un projet de vitre interactive. Toyota a initié un projet similaire avec le CIID (Copenhagen Institute of Interaction Design). Le projet s’appelle Window to the World.

 

Après le magasin et l’automobile, je terminerai enfin par la maison en rappelant le prototype Transparent Smart Window de Samsung, dont j’ai parlé dans le premier article de cette série sur la transparence :


Finalement, on constate qu’il nest sans doute pas si loin le temps où l’on utilisera au quotidien des surfaces transparentes comme écrans interactifs (c’est-à-dire comme surface d’affichage et de commande). Dès lors, à quoi rêverons-nous quand la transparence ne sera plus une valeur du futur ?

Les surfaces tactiles transparentes dans l’imaginaire marketing des banques d’images

Dans le précédent article, j’indiquais que le verre comme tout autre matériau transparent devenaient, dans notre imaginaire, les matériaux par excellence porteurs des interactions tactiles. C’est ce que montrent par exemple les représentations des interactions tactiles dans les banques d’images.

En voici quelques exemples :

Ce diaporama nécessite JavaScript.

Évidemment, dans ces images, on ne voit justement pas le verre (ou le matériau transparent de l’écran) ! Mais on le devine : le traitement en aplat des signes suggère la surface plane sur laquelle ils s’affichent. 

Et les observateurs avertis que vous êtes auront remarqué le détail qui a ici toute son importance : curieusement, dans toutes ces illustrations (évidemment, je les ai choisies en partie pour cela, mais quand même…), les utilisateurs sont vus de face, à travers l’écran transparent !! Quelle chance ! En effet, d’une part, l’écran transparent permet cela, et en plus, en faisant cela, on montre bien que c’est un écran transparent ! La boucle est bouclée ! Et si ça, ça n’est pas montrer qu’on est moderne, c’est à désespérer de tout ! ;-))

Bref, voilà bien un mode de représentation tout à fait inédit par rapport aux vues des interfaces antérieures au tactile, où l’image adoptait toujours le même point de vue que celui de l’utilisateur, à sa place ou “par dessus son épaule”. Dans ces images au contraire, c’est soudain comme si on était caché à l’intérieur de l’ordinateur ou derrière l’écran, et donc caché de l’utilisateur… On l’observe sans qu’on sache s’il nous voit (l’écran est transparent mais l’utilisateur ne donne pas l’impression de nous avoir vu). Et grâce à ce procédé, oh miracle !, on a sur la même image l’utilisateur et sa main, l’interface et ses contenus ! Plus que de l’eye-tracking, c’est du hand-tracking !

Vous apprécierez d’ailleurs les qualités photogéniques d’un tel dispositif qui permet justement de montrer sur la même image, par superposition, à la fois l’utilisateur de face (on peut donc voir son visage, son corps, ses mains…) et l’écran avec ses contenus. C’est une superposition inversée par rapport à celle de la réalité augmentée. Dans cette dernière, moi utilisateur, je vois des signes qui se superposent sur l’écran de mon mobile à la vue du monde extérieur. Dans les images ci-dessus : je suis à la place du monde extérieur et j’observe l’utilisateur de l’autre côté de l’écran transparent, lequel affiche donc ses signes entre nous.

De la sorte, la superposition crée presque une sorte de tatouage ou d’écriture sur le corps de l’utilisateur. On se prend à rêver d’un usage plus artistique de ce type de procédé…

En tous cas, si cette question de la superposition des images dans la réalité augmentée vous intéresse, vous pouvez jeter un oeil sur les articles suivants de ce blog qui traitent de ce sujet :

Pour finir, rappelez vous également la scène d’introduction du premier film de prospective de Microsoft que j’ai montré dans le précédent article : elle reprend exactement le même principe de l’écriture sur une vitre filmée depuis l’autre côté de ladite vitre. Nous sommes donc bien dans le même registre de représentation.

Allez, fini pour aujourd’hui. Le prochain article sera consacré aux écrans transparents dans les films de science-fiction. See you soon…