Greg Madison, qui es tu?

Il y a des personnes avec qui le relationnel et la bonne humeur sont naturels. Greg Madison fait parti de cette catégorie. J’ai eu la chance de le rencontrer  la première fois lors d’une soirée ARParis. Il était venu nous présenter sa vision des mondes connectés et son projet « The 7th Sense ».

Alors quand Greg a accepté de répondre à mes question se fut un grand plaisir de pouvoir vous partager son univers riche en idées et en projets.

J’a prévu de publier notre entretien en deux parties. La première sera consacrée à la bio et le background de Greg. Le deuxième article nous parlerons de la vision de l’avenir de la réalité augmentée.

Bonjour Greg, est ce que tu peux te présenter?

Greg MadisonJe suis Designer d’IHM innovante, infographiste, scénographe, et metteur en scène. Je m’occupe de tout ce qui touche de près ou de loin à la perception, soit en matérialisant des interfaces utilisateur, soit en créant de nouveaux concepts d’usage et en les mettant en scène pour les rendre accessibles à la compréhension. Mon parcours est assez atypique. Pourtant, il était tout tracé pour que je puisse faire ce que je fais aujourd’hui.

Mon père avait une entreprise d’électronique. J’ai toujours grandi entouré d’appareils très sophistiqués et d’ordinateurs. Mais ce qui m’a réellement conditionné, c’est de recevoir pour mes 6 ans une boite de magie. Dès lors, cette passion me dévora jusqu’à ce que je devienne bel et bien magicien illusionniste professionnel.

Fusionner la technologie et la magie m’a toujours paru évident et cela m’a donné l’envie de conceptualiser des appareils capables de superposer véritablement le monde numérique sur le monde réel.

En 2009 , je présentais mon projet « The 7th Sense » dans la catégorie Design d’interface Homme Machine de l’Imagine Cup de Microsoft. Cet appareil offrait la possibilité, entres autres, de visualiser et d’interagir avec des réalités alternatives. Autrement dit avec des technologies d’aujourd’hui, des Google glass croisées avec une Kinect.

Ce concept m’a permis d’accéder à la finale mondiale et ainsi d’être repéré puis engagé par Gregory Renard, co-fondateur et CEO de Wygwam, Xbrainsoft et Xbrainlab.

J’ai pu travailler dans la cellule R&D notamment sur des sujets telle que l’intelligence ambiante, les NUI ainsi que sur les intelligences artificielles de type Siri et Google now. (NDR : Communiqué de presse de lancement de Angie)

Depuis quand t’intéresses-tu à la réalité augmentée et comment l’as tu  découverte ?

Ma vraie rencontre avec le terme de AR fût causée par le manque d’ergonomie du WAP !

En 2003, je me suis acheté mon premier téléphone mobile muni d’un appareil photo numérique. À cette époque les écrans n’étant pas tactiles, il fallait être aventurier ou complètement désespéré pour essayer de naviguer sur internet avec seulement un clavier numérique … Il me vînt alors une idée, utiliser le téléphone lui-même comme une souris que l’on déplacerait dans l’air pour naviguer dans le contenu. Technologiquement parlant, ce n’était pas si simple, vu qu’à cette époque il n’y avait pas encore d’accéléromètre. Je voulais utiliser le défilement des pixels capté par l’APN pour contrôler le défilement sur l’écran, ce qui aurait donné l’illusion d’une loupe que l’on déplacerait sur une carte.

Dans la semaine qui suivit, en poussant l’idée un peu plus loin, j’avais imaginé « BUFFET ». Un concept où chaque coordonnée GPS constituerait une URL qui pointe vers un contenu géolocalisé, dans lequel il faudrait se déplacer physiquement avec son téléphone portable pour accéder à l’information. Une fois dans cette zone, l’utilisateur accéderait au menu du buffet virtuel qu’il verrait au travers de l’écran de son SmartPhone et c’est en trempant son périphérique dans « les plats » proposés qu’il accéderait ou récupérerait l’information.

Pour mieux cerner voici un exemple d’usage. Je suis sous un abri bus, je lance BUFFET sur mon téléphone. Comme l’information est contextuelle au GPS et au monde réel, le Buffet qui m’entoure appartient à la RATP. Au menu, les horaires du prochain bus, les tarifs, des jeux, des médias pour patienter, etc. Le but de tout cela était d’apporter à l’utilisateur un service ou une information contextuelle, sans devoir faire de la saisie interminable et surtout de devancer ses besoins.

Eh bien, c’est en faisant des recherches sur internet pour savoir s’il n’existait pas déjà une solution similaire que je suis tombé sur ARtoolKit et la définition de réalité augmentée. Il me manquait ce mot clef et ce jour-là ma vie a pris un véritable tournant car j’ai pu accéder à quelques documentations sur le sujet. J’avais enfin des mots et des exemples pour communiquer mes idées.

Peux-tu nous donner ta propre définition de ce concept ?

Au risque de vous surprendre, je dois vous avouer que le terme de « Réalité Augmentée » m’énerve au plus haut point. Si on écoute les marketeux, aujourd’hui tout est réalité augmentée … je pourrais dérouler une liste d’exemples longue comme le bras, mais ça démontrerait juste que c’est un gadget qui fait du Buzz, qui sert à vendre des céréales ou bien encore à multiplier les clicks sur les blogs technologiques avec des titres bien racoleurs. C’est d’ailleurs grâce à ces derniers que le grand public associe les Google Glass à un périphérique de RA. Alors évidement que cela sonne à mes oreilles comme une supercherie qui ne tient pas ses promesses. Une réalité que l’on ne peut pas toucher, peut-elle toujours être qualifiée de réalité ?

Si nous étions honnêtes, le terme devrait être « Perception augmentée » car au travers d’une tablette, d’un smartphone, etc, c’est notre perception du monde qui est augmentée et non sa réalité. Je pense que cette distinction est très importante, elle permet d’envisager un nouveau paradigme qui se rapproche plus de ce que la réalité augmentée représente dans le phantasme collectif et c’est ce que j’appelle personnellement « Réalité Alternative ».

Donc si je devais définir Perception augmentée je dirais:

« Augmentation artificielle des sens qui permet d’accéder à diffèrent degrés de lecture de son environnent. »

Sur ton profil linkedin, tu es identifié comme Designer IHM innovante, peux-tu nous expliquer?

Mon passé de magicien-illusionniste me donne une capacité unique d’observation et de compréhension de la façon dont les gens interagissent avec le monde réel et virtuel. Car, d’un certain côté, la magie, c’est déjà de la réalité augmentée ou virtuelle ! J’ai appris à décrypter ce qui commande le comportement humain de façon non-consciente. Et aujourd’hui c’est de cela dont je me sers pour nourrir mes créations. Alors que l’informatique rapetisse au point de ne plus être visible et que l’insatiable besoin de l’immédiateté nous pousse à dématérialiser les supports physiques, il y a un moment où l’humain doit agir et interagir avec cette invisible informatique pervasive et cette poussière digitale. Créer ces vecteurs qui recomposent ces informations ou créer l’ancre comme un lien tangible entre le monde réel et son modèle informatique c’est justement mon job. Et c’est en cela que je suis Designer d’IHM innovante, car ma démarche créatrice n’est pas figée sur les technologies du marché, mais se base sur une intuition personnelle du futur.

Par exemple, lorsque j’ai créé la Pandora’s box, je suis parti de l’intime certitude que demain notre cerveau, aidé pas la nanotechnologie, sera la carte graphique qui générera les images des interfaces qui nous entourent. Il remplit déjà parfaitement cette fonction pour nos rêves lorsque l’on dort ! Donc, que ce soit par ce biais ou par un autre, l’écran est voué à disparaître ! Pourtant il est important d’avoir des items fédérateurs qui puissent être identifiés et qui puissent être manipulables. Et ce n’est pas parce qu’aujourd’hui nous ne disposons pas de cette « faculté de projection mentale » que nous ne pouvons pas en matérialiser l’usage. Pour le moment la Pandora’s box fonctionne avec des vidéos projecteurs habilement dissimulés pour le video mapping, des kinects pour caler les projections ainsi que pour déclencher les scénarios utilisateur, du NFC pour faire communiquer les objets inertes avec les différents devices, etc.

Pour l’utilisateur c’est quasiment transparent, il pourrait presque avoir la sensation qu’il a des super pouvoirs. Mais demain, quand tout cela sera en place en synchronisant tous les capteurs visibles et invisibles, tout le monde pourra bénéficier de ces capacités augmentées comme si c’était des aptitudes innées et j’appelle cet écosystème : l’égosystème.

Je sais que les interfaces et les environnements connectés sont un sujet qui te passionne. Selon toi demain comment interagirons nous avec notre environnement?

Pour que la RA prenne son envol, il faut clairement des périphériques adaptés qui nous permettent de manipuler ces réalités alternatives comme l’on manipule la réalité mère. Mais surtout, au-delà de ça, il y a une évidence : afin de matérialiser tous les usages futurs, il faut un terrain commun, une grille commune … une matrice !

Ce chaînon manquant sera le chef d’orchestre qui mettra au diapason le digital et le réel. En réalisant une copie numérique constante de l’espace, du temps, des objets et du vivant, nous disposerions naturellement de cette grille de référence où la programmation orientée objet sera intriquée à ses attributs réels et augmentés. En unifiant toutes les données générées par les capteurs, les caméras, les satellites, les drones, les smartphones, les objets connectés, et tout le reste, nous allons provoquer une singularité de la terre qui dotera Gaïa d’une conscience numérique omnisciente.

C’est logique et inévitable. Que ce soit les voitures sans chauffeur pour se déplacer, que ce soit les drones pour voler, les robots pour évoluer parmi nous, et même pour créer un internet des objets avec des objets inertes, plutôt que de recalculer l’environnement propre à chaque entité, la mutualisation permettra d’être plus performant et moins gourmand en ressource, tout en offrant un modèle exact pour tout le monde.

Il y a déjà des initiatives qui vont dans ce sens, tel que Kinect@Home ou bien encore le projet européen Roboearth qui a pour but, de mutualiser dans le cloud, les diverses connaissances des robots. Il y a Google maps, Bing Maps, Nokia maps ou les francais UBICK qui s’occupent de digitaliser notre environnement. Nous avons déjà une flopée de capteurs qui pourrait retranscrire le moindre de nos gestes, sans parler du nombre hallucinant de technologies développé par les Universités, les labos de recherche et dont le grand public ne se doute même pas : le tracking 3D des gens et des objets avec de simple caméra de surveillance, la reconstruction 3D automatique par photogrammétrie à partir de films ou d’images, les algorithmes de prédiction qui indiquent où se passera de façon probable les prochains crimes et même où vous vous trouverez dans 24h, la vision laser par réverbération qui permet de filmer en 3D dans une pièce sans y être et j’en passe et des meilleurs. Sans compter les innombrables micros qui nous entourent et qui seront en mesure de capter et d’interpréter tout ce que nous disons.

Aujourd’hui, il est humainement impossible de stocker toutes ces données, ni de les traiter d’ailleurs. De grand futurologue, tel que Ray Kurzweil, se basant sur une courbe technologique temporelle exponentielle, prédit que d’ici très peu d’année le stockage ne sera plus un problème. Quant au traitement des données, on peut raisonnablement miser sur une intelligence artificielle qui aura largement dépassé les capacités cognitives de l’homme et qui sera capable de tout mettre en ordre … l’Ordinateur en somme ! Et pour en finir avec cet I.A., elle pourra reconstruire par anastylose notre environnement passé, et en apprenant de nos modèles comportementaux, pourra compléter les trous de nos agissements antérieurs et simuler nos probables futurs immédiats.

EgosystèmeDonc pour simplifier. Ce monde en éveil que je nomme l’égosytème, sera une copie 3D temps réel de notre monde. Il sera le maillage parfait de notre environnement et si l’on considère ce maillage 3D comme celui d’un jeu vidéo, on comprend alors l’incroyable portée de l’outil. Cela permet de rendre le champ des possibles illimité étant donné que tout sera programmable et paramétrable !

Par exemple au petit-déjeuner, une simple tasse devant moi aura son pendant numérique qui lui du coup pourra être programmé. Je peux changer sa couleur en fonction de la température du contenu, je peux afficher sur son pourtour des infos de type météo de la journée… toujours utile de voir ça avant de partir au boulot en prenant son café le matin. On peut aussi imaginer des interactions riches et croisées, comme tourner la tasse sur la table à l’instar d’un potentiomètre pour monter ou descendre le son de la musique dans la pièce par exemple … Et c’est bien entendu au travers de périphériques de réalité augmentée que je peux voir et interagir avec ces différents états de l’objet. Bref ! Avec l’égosytème, voir à travers les murs, avoir le don d’ubiquité, regarder la photo d’un de ses proches pour communiquer instantanément avec lui, etc, ce résumerait à quelques lignes de code !

Comment envisages tu ton évolution dans les prochaines années ?

Mon principal objectif à ce jour est d’entrer dans l’une des entreprises les plus convoitées au monde : GoogleX. Ils disposent déjà de toutes les technologies nécessaires à la mise en place de l’égosytème et ils mettent à disposition de ses inventeurs du futur toutes les ressources nécessaires. De plus, tous mes autres concepts semblent rentrer en parfaite résonance avec ce que je devine être leur prochaine innovations technologiques.

Olivier Schimpf (204 Posts)

J’ai une formation technique et je suis passionné par les nouvelles technologies et tout ce qui s’en approche. Aujourd’hui je participe,à l’animation du blog http://augmented-reality.fr. En 2011, nous avons créé avec Gregory Maubon, l’association de promotion de la réalité augmentée RA’pro dont je suis le président. Dans le cadre des activités de RA’pro, je co-organise les ARuseCamp (http://ARuseCamp.org) et j'interviens pour des conférences, des ateliers ou du conseil et de l'accompagnement. Vous pouvez me joindre à cette adresse olivier@augmented-reality.fr ou via skype olivier.schimpf Linkedin ; http://www.linkedin.com/profil.....rk=tab_pro


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *