SAMI, un robot de téléprésence à commande « naturelle »

Fin juin, j’avais rédigé un article sur le projet DORA, un robot de téléprésence pilotable depuis un casque Oculus Rift. Or, récemment, un tweet de Rodolphe Hasselvander, le CEO de Blue Frog Robotics, créateur du déjà célèbre Buddy, me faisait remarquer que l’équipe qu’il dirige au CRIIF (Centre de Robotique Intégrée d’Ile de France), a déjà mis au point, elle aussi, un robot de téléprésence humanoïde pilotable via un casque de réalité virtuelle. Il s’appelle SAMI.

Le CRIIF est un laboratoire de R&D financé sur des fonds publics et privés, intégré au sein du Robot Lab, un incubateur parisien de solutions robotiques et objets connectés. C’est le CRIIF qui a donné naissance à Blue Frog Robotics en tant que spin-off pour commercialiser le robot Buddy. Rodolphe Hasselvander, CEO de Blue Frog Robotics, est également co-fondateur et COO du CRIIF.

SAMI est un robot semi-humanoïde, avec une base mobile sur roues. Il existe depuis déjà pas mal de temps puisque sa première sortie publique avait eu lieu lors de l’édition 2012 de Futur en Seine. SAMI a un torse anthropomorphe, des bras et des mains qui s’articulent comme leurs homologues humains. SAMI est un robot de téléprésence qui se contrôle à distance de manière très intuitive, via des contrôleurs immersifs. Pour les bras, le pilote humain n’a qu’à exécuter les mouvements : ils sont ensuite reconnus par un capteur de type Kinect 2 et reproduits par SAMI. Pour la tête, comme sur DORA, elle est pilotée via un casque Oculus Rift qui permet à SAMI de reproduire les mouvements de tête de son pilote humain.

Ce type de contrôle permet une interaction à distance très intuitive et immersive du pilote humain avec d’autres humains qui sont en présence de SAMI. Il permet également à SAMI de réaliser de manière très naturelle des actions habituellement difficiles à réaliser pour un robot, telles que prendre et déposer un verre d’eau ou des médicaments ou manipuler des objets.

SAMI a été imaginé pour être au service de personnes en manque d’autonomie (personnes âgées, malades, travailleurs en situations complexes…). L’un des gros intérêts du robot pour la personne assistée, c’est que si SAMI bouge, c’est qu’il y a une personne à distance qui est en train de le piloter pour aider la personne sur place. C’est donc un type de soutien très différent d’un robot intelligent purement autonome. SAMI est une interface robotique entre deux humains éloignés l’un de l’autre.

Pour autant, SAMI peut également apprendre des mouvements et actions, et les exécuter de manière autonome, piloté cette fois-ci par la personne qui est présente à côté de lui. SAMI dispose également de capteurs 3D pour se déplacer et agir de manière autonome, en prenant en compte son environnement, et ne pas heurter un mur, un objet ou une personne.

Bref, je vous laisse le découvrir dans la vidéo ci-dessous :

Si Buddy, pourtant créé après lui, lui a grillé la priorité en termes de popularité, c’est parce qu’il a été positionné sur un créneau accessible par le grand public (plus petit, moins cher, d’usage domestique plus simple), alors que SAMI vise des usages beaucoup plus professionnels. Indépendemment de cela, SAMI représente cependant à mon sens une tendance clé de l’évolution conjointe des robots de téléprésence et de la réalité virtuelle…

Publicités

Quand n’importe quelle surface devient une interface. Episode 5 : Les surfaces d’affichage et de commande (1/2).

Je vais terminer cette série par les projets ou concepts qui consistent à transformer n’importe quelle surface en interface d’affichage et/ou de commande, comme on peut le voir dans les films de prospective des marques. Cette approche, c’est un peu le rêve absolu (ou le cauchemar absolu ?) de la digitalisation de tout notre environnement. Mais la réalité des prototypes et des produits actuels est cependant encore très loin de ce que l’on peut voir dans les films de prospective.

La principale technique en cours d’expérimentation sur ce point est la projection ou pico-projection, couplée à la reconnaissance de mouvement.

On peut voir cette technologie mise en scène dans des concepts tel que le désormais célèbre concept d’iphone avec projection laser de clavier, dont la vidéo a été vue plus de 60 millions de fois sur YouTube ! :

De nombreux prototypes de technologies similaires sont également expérimentés.

L’un des premiers et des plus célèbres est le prototype SixthSense mis au point par Pranav Mistry au sein du laboratoire Fluid Interfaces Group dirigé par Pattie Maes au MIT Media Lab :

On peut aussi citer le WorldKit system, de Chris Harrison :

OmniTouch est un autre prototype développé par Chris Harrison avec l’Université Carnegie Mellon et Microsoft Research. Il utilise un système de projection et une Kinect :

Un autre chercheur, Nikias Elmqvist, a quant à lui développé un système similaire, intitulé Extended Multitouch, qui dispose de capacités de reconnaissance des gestes tactiles très élaborées, comme on peut le lire dans cet article ou le voir dans la vidéo ci-dessous :

Autre prototype étonnant : celui de Natan Linder, un étudiant du MIT Media Lab qui travaille lui aussi dans le Fluid Interfaces Group de Pattie Maes. Son prototype intitulé LuminAR se présente sous la forme d’une lampe de bureau dotée d’une caméra, de capteurs optiques et d’un projecteur couplés à des logiciels de traitement des données et de scanner.

Récemment, Fujitsu a présenté un dispositif similaire encore plus étonnant par ses performances et son usage puisqu’il est destiné à rendre les livres tactiles et interactifs, et à digitaliser les informations qu’ils contiennent :

Fujitsu envisagerait de commercialiser cette technologie en 2014.

D’autres fabriquants ont devancés tous ces créateurs de prototypes puisqu’on peut d’ores et déjà trouver sur le marché des produits qui utilisent la projection couplée à la reconnaissance de mouvement.

La société Celluon par exemple, commercialise le Magic Cube, un clavier projeté qui n’a rien a envier au concept d’iphone cité au début de cet article :

le Magic Cube de Celluon

le Magic Cube de Celluon

 

La société Light Blue Optics va plus loin en proposant un boîtier appelé Light Touch qui non seulement affiche un clavier de commande mais également des contenus (textes ou images) manipulables tactilement :

Ubi interactive, une start-up qui participe au programme Kinect Accelerator de Microsoft, va encore plus loin en proposant un dispositif de projection couplé à Kinect, qui projette sur n’importe quelle surface l’écran d’un ordinateur tournant sous Windows 8 et avec lequel on peut alors interagir de manière tactile et gestuelle sur la surface projetée :

Pour plus d’informations, lire ces deux articles :

La société Perch propose quant à elle un dispositif pour “transformer les surfaces d’étalage où reposent les produits en interfaces dynamiques fournissant de multiples informations et une expérience interactive” (source) :

La technologie est la suivante : un détecteur installé au plafond permet de repérer les mouvements des clients sur et autour de la table ainsi que leurs interactions avec les articles qui y sont exposés. Un projecteur projette le contenu sur la table et autour des objets.

Je terminerai cet article avec un prototype atypique qui permet de rendre interactive la surface d’un liquide ! Le dispositif s’appelle AquaTop Display. Il a été développé dans les laboratoires de l’University of Electro-Communications de Tokyo.

Plus d’infos, photos et vidéos dans ces articles :

D’autres technologies émergent cependant, plus proches de ce que montrent les films de prospective. C’est ce que nous verrons dans le prochain et dernier article de cette série.