Interfaces … ou pas

La visite du salon Laval Virtual me fait monter en tête de nombreuses questions sur l’avenir des interfaces avec les dispositifs informatiques. En effet, elles ont pour la plupart disparues des stands cette année, remplacées par la Kinect de Microsoft. La tendance générale est donc à l’utilisation du corps comme élément naturel de contact.

Dans le domaine de la réalité augmentée, on n’échapera pas au phénomène en gardant cependant à l’esprit que les informations virtuelles superposées au réel, doivent d’une façon ou d’une autre, atteindre l’oeil des utilisateurs. On peut alors distinguer deux objectifs. Soit on veut que les élements soient visibles de plusieurs personnes, en permettant par exemple une interaction collective. Soit on imagine des informations unipersonnelles.

Dans le premier cas, il semble assez pertinent de passer par des projections. Nous avons déja des exemples d’utilisation de ce genre, dans le tourisme. Il reste « juste » à travailler sur les problèmes d’occultation.

Pour le cas personnel par contre, le problème de l’interface est plus complexe. Aujourd’hui la plupart des applications se basent sur la webcam+écran ou sur le smartphone. Comment les faire disparaitre ? Les lunettes actives sont une possibilité, comme nous l’avons vu sur le stand de Laster. Elles permettent d’utiliser un objet du quotidien comme support. Il reste à les rendre encore plus légères et, peut être, à y incorporer directement une unité de traitement des données autonomes. Ce n’est qu’un problème technique de miniaturisation. En attendant cela, les lunettes peuvent n’être qu’un système de visualisation couplé à un smartphone (par bluetooth).

Mais que faire pour aller plus loin ? On parle régulièrement de lentilles électroniques comme support discret. Le devellopement de ces objets reste à faire et même dans ce cas, ce n’est qu’une sorte de miniaturisation extrème des lunettes … Si on veut s’affranchir complètement de l’interface, il faut pouvoir apporter l’information virtuelle directement au niveau nerveux et/ou cérébrale. Je ne connais pas l’état de l’art dans ce dommaine mais le physicien que je suis ne peut s’empécher de penser que tout cela, après tout, ce n’est que de l’électricité 🙂

Evidemment si on ajoute des informations directement dans la partie visuelle de notre cortex, on peut se demander  qu’est-ce qu’on pourra encore définir comme réalité… Mais c’est un autre débat !!

Site Web | Plus de publications

Grégory MAUBON est coordinateur numérique chez HCS Pharma, une startup biotech axée sur la R&D in vitro, spécialisée dans le criblage d’imagerie cellulaire à haut contenu (HCA) et à haut débit (HCS). HCS Pharma commercialise des produits basés sur la technologie BIOMIMESYS® et développe ses propres modèles cellulaires 3D dans sa matrice extracellulaire exclusive BIOMIMESYS®. Il gère les missions informatiques et anime les usages numériques liés aux besoins de l’entreprise. Il travaille sur la gestion des données en tant que CDO (Chief Data Officer) et dirige le programme R&D Intelligence Artificielle de l’entreprise.

Il est également consultant indépendant en Réalité Augmentée depuis 2008, où il a crée le site www.augmented-reality.fr et a co-fondé en 2010, RA’pro l’association de promotion de la réalité augmentée. Son expérience du domaine s’est forgée dans l’accompagnement de nombreuses entreprises, de tous les secteurs, sur la mise en place effective de la réalité augmentée ainsi que sur la définition d’objectifs et de critères de succès.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *