Passer au contenu

Comment dialoguerons-nous demain avec les ordinateurs ?

Des chercheurs du monde entier mettent au point de nouvelles manières de communiquer avec nos appareils électroniques. Découverte de résultats dignes de la sciencefiction.

Plus de 40 ans. On a du mal à le croire, et pourtant, la souris grâce à laquelle nous communiquons avec les ordinateurs a plus de quatre décennies ! On la doit à un ingénieur et pionnier de l’informatique, Douglas Engelbart, et à son équipe de l’Institut de recherche Stanford (Californie). Une magnifique invention sortie d’un programme de recherche XX dont l’objectif était “ d’augmenter l’intelligence humaine ” par l’apport de la technologie.

Dialoguer avec sa machine

L’invention de la souris signe également l’invention d’une nouvelle manière de dialoguer avec la machine, une nouvelle “ interface ”. En l’occurrence, l’interface graphique, celle que l’on connaît aujourd’hui à travers Windows et Mac OS. Aux débuts de l’informatique moderne, le clavier est le seul moyen de communiquer avec l’ordinateur. L’utilisateur tape du texte pour expliquer à la machine ce qu’elle doit faire. C’est ce que l’on appelle une interface “ à ligne de commande ” dont le système d’exploitation MS-DOS est un exemple. L’inconvénient : il est nécessaire d’apprendre une kyrielle de commandes pour s’en sortir, une contrainte qui ne met pas l’informatique à la portée de tous. Avec l’interface graphique, les commandes à taper sont remplacées par des images que l’on active d’un clic de souris, les icônes. L’interface graphique se généralise en même temps que la souris, dans les années 80. Depuis, peu de changement dans nos habitudes. Les boutons en tout genre, qu’il s’agisse de souris ou de manettes de jeu, ont la part belle.

Des concepts futuristes

A la fin des années 80, le touchpad ou pavé tactile apparaît sur les ordinateurs portables. C’est le précurseur des écrans tactiles qui déferlent aujourd’hui sur les appareils électroniques, téléphones mobiles en tête avec le succès de l’iPhone, et même sur les écrans d’ordinateur. Et demain ? De nombreuses voies sont en cours d’exploration. Certaines commencent à faire leur apparition.L’interface gestuelle, amorcée avec la console Wii, promet une communication plus naturelle avec la machine. La réalité augmentée, popularisée par de récentes applications ludiques, commence à percer auprès du grand public. Quant à l’interface reliant le cerveau et l’ordinateur, encore balbutiante, elle impressionne par ses résultats. Petite excursion dans des domaines parfois proches de la science-fiction

Je pense donc je conduis

Transmettre par la pensée ses ordres à l’ordinateur, l’idée semble cantonnée à la science-fiction. Elle fait pourtant l’objet de recherches dans le monde entier, avec un certain succès. Le fonctionnement de cette interface repose sur l’analyse de l’activité électrique du cerveau. Le sujet porte un casque bardé d’électrodes qui captent les signaux cérébraux. Il est ainsi possible de déterminer le degré de concentration d’une personne, technique déjà mise à profit dans des jeux pour enfants, comme le MindFlex de Mattel. Reconnaître des pensées plus précises est possible. C’est le cas de celles relatives à des mouvements. Que l’on batte des pieds ou que l’on imagine le battement, le cerveau crée un signal électrique particulier, identique dans les deux cas. Un traitement informatique permet de le distinguer du reste de l’activité cérébrale. Dans le domaine du jeu vidéo, il n’y a plus qu’à associer une commande simple au déplacement imaginé. Comme avancer le personnage à l’écran pour un battement des pieds, ou le faire tourner à droite pour un mouvement de la main droite. L’équipe du projet OpenViBE (Inserm-Inria) a réalisé une démonstration dans ce sens en mai dernier. Une telle interface “ cerveau-ordinateur ” exige le calme autour de l’utilisateur et un étalonnage préalable du système, facile à mettre en œuvre. www.youtube.com/watch?v=G71mTc1hiP0

Mains baladeuses

Prendre une photo juste en formant un cadre avec les doigts, téléphoner en tapant les numéros affichés sur la paume de la main, ne sont que quelques-unes des possibilités qu’offre le projet “ SixthSense ” ou “ sixième sens ”, conçu par Pranav Mistry au MIT (Institut de technologie du Massachusetts). Il s’agit d’un appareillage à porter autour du cou. Il se compose d’un téléphone mobile, d’un vidéoprojecteur miniature, d’un miroir et d’une petite caméra. La caméra filme les mains, les doigts de l’utilisateur, les objets placés devant elle. Le vidéoprojecteur et son miroir transforment n’importe quel support en écran, à commencer par la main. Quant au téléphone mobile, c’est l’ordinateur portatif par excellence, capable d’analyser les images filmées, de se connecter à Internet pour y puiser des informations ensuite affichées. Les exemples de la vidéo de présentation sont d’une simplicité déconcertante. En associant des actions au mouvement des doigts, les possibilités semblent infinies. Un projet très prometteur. www.pranavmistry.com/projects/sixthsense

Des hologrammes que l’on peut toucher

Les écrans holographiques commencent à voir le jour, utilisant diverses technologies. Ils sont capables de représenter un objet en relief, en lévitation devant le spectateur. Comme le fameux tableau de bord qui surgit devant Tom Cruise dans le film Minority Report. Les écrans actuels, visuellement bluffants, souffrent d’un inconvénient : il suffit de passer la main dans les airs pour traverser l’image et casser l’illusion. D’où les travaux d’une équipe de l’université de Tokyo. Leur but est de créer des hologrammes tangibles. Pour y parvenir, une plaque à ultrasons complète l’écran holographique. Quand la main du spectateur s’approche de l’hologramme, le dispositif crée une sensation tactile grâce à l’envoi d’ultrasons. La pression acoustique qui s’exerce alors sur la main donne l’illusion du toucher. www.youtube.com/watch?v=Y-P1zZAcPuw

Les doigts ont la parole

Ceux qui aiment courir le baladeur sur les oreilles le savent bien, il est malaisé de changer de piste tout en continuant son jogging. Des chercheurs de Microsoft et des universités de Toronto et de Seattle ont mis au point un dispositif ingénieux. Pour passer au morceau suivant, il suffit de joindre son index et son pouce. Le panneau de contrôle, c’est tout simplement la main ! Cette fois, c’est l’activité électrique des muscles, recueillie par des électrodes posées sur l’avant-bras du sujet, que l’on analyse. Il est ainsi possible de reconnaître quatre mouvements précis, même quand les mains sont déjà occupées, à transporter des sacs de courses par exemple. L’équipe travaille désormais à la miniaturisation du dispositif, avec une liaison sans fil. www.youtube.com/watch?v=6_7BzUED39A

L’autre réalité

La réalité augmentée a le vent en poupe. Bien qu’elle apparaisse surtout ludique, entre les dinosaures qui surgissent au Futuroscope et les images qui s’animent en 3D quand on les présente à la webcam, elle peut aussi rendre de grands services. Son principe est de superposer des images virtuelles à des images réelles dans le but de leur apporter un supplément d’informations. C’est le cas dans les casques des pilotes de chasse, par exemple. Le téléphone mobile et la géolocalisation offrent à la réalité augmentée un nouveau terrain d’expérimentations. A l’instar de l’application Metro Paris Phone sur iPhone qui permet de trouver la station de métro la plus proche simplement en filmant avec son mobile le lieu où l’on se trouve. De telles applications annoncent une nouvelle manière de se déplacer. www.metroparisiphone.com

Ça gratouille, ou ça tchatouille ?

Un stéthoscope posé sur la table, un microphone, un grattement d’ongle, et voilà le bureau de Chris Harrison de l’université Carnegie Mellon, à Pittsburgh, transformé en interface tactile. Il s’agit plus exactement d’une interface acoustique. Le grattement d’ongle produit un son particulier qui dépend de l’endroit gratté, et surtout de la manière de gratter. C’est l’intérêt des recherches de Harrison : il a déterminé six gestes que leur signature acoustique permet de distinguer. On peut ainsi tapoter deux fois, dessiner un X, un rond barré, un I avec son point, un F et un Y sur son bureau. Reste ensuite à définir les interactions, comme régler le volume des enceintes ou lancer son logiciel de messagerie instantanée. Mais l’idée ne s’applique pas qu’à la table. Les murs de la maison, et même sa propre jambe, peuvent aussi servir de panneau de contrôle pour commander téléphone et baladeur. www.chrisharrison.net/projects/scratchinput

La souris n’a pas dit son dernier mot

Que ceux qui veulent mettre les souris à la retraite se méfient : elles ne sont pas encore mortes ! En 40 ans, la souris informatique a connu plusieurs évolutions. D’abord à boule, elle s’est ensuite équipée d’un laser pour suivre ses déplacements. Puis a gagné un peu de liberté en coupant son fil originel tandis que des boutons supplémentaires poussaient sur sa coque. Avec son modèle Magic Mouse en forme de galet tout juste apparu sur le marché (voir Micro Hebdo n° 603, page 9), Apple marque une nouvelle étape. Adieu bouton gauche et bouton droit, la coque de la souris est entièrement tactile. Les ordres se donnent d’un glissement de doigts sur la surface, par exemple vers le haut de la souris pour un zoom à l’écran.Microsoft n’est pas en reste. Ses chercheurs ont présenté, en octobre dernier, cinq prototypes de souris tactiles multipoints, de technologies et de formes diverses. Parmi eux, le modèle Side Mouse (modèle de droite ci-dessous) transforme la surface immédiate en zone tactile. La souris sert de repose-main : les doigts tapotent et glissent sur la table. Le modèle Arty Mouse (modèle de gauche ci-dessous), au contraire, prévoit deux emplacements indépendants, un pour le pouce, l’autre pour l’index, grâce auxquels il est possible de dessiner des mouvements avec les deux doigts. Bref, la souris risque fort de demeurer encore un de nos intermédiaires privilégiés pour dialoguer avec les ordinateurs.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Olivier Lapirot