Passer au contenu

Les robots bientôt prêts à déchiffrer notre langage corporel

Des chercheurs américains ont développé un système pour traquer les micro-mouvements de notre corps et apprendre ainsi à des intelligences artificielles à reconnaître nos émotions et nos intentions non verbales.

Les machines sont déjà capables de reconnaître (à peu près) tout ce que vous dites. Mais pour communiquer, nous utilisons aussi notre corps, comme lorsque nous pointons du doigt un objet ou une direction. Des informations que les robots sont en revanche incapables de saisir. Mais peut-être plus pour longtemps.

Une équipe de chercheurs de l’Université de Carnegie Mellon a en effet entrepris de les former à déchiffrer nos signaux non verbaux, comme le révèle le site IEEE Spectrum. Pour obtenir davantage d’interactions entre l’homme et la machine, ouvrir la voie à une réalité virtuelle et augmentée plus interactive et développer des interfaces utilisateurs plus intuitives.

Les assistants vocaux Alexa ou Siri, seulement dotés de micros, se contentent de vous croire sur parole et ne s’attachent qu’au sens littéral de vos mots. Même Pepper, le robot humanoïde de Softbank Robotics qui est équipé d’une caméra pour lire nos émotions, se focalise sur des signaux basiques pour déduire notre humeur : un sourire, le volume de la voix. Mais il n’est en aucun cas capable d’appréhender finement vos attitudes.

Un dispositif avec 500 caméras

L’équipe de Carnegie Mellon s’est donc attelée à développer un système informatique, baptisé OpenPose, pour traquer les micro-mouvements de tout notre corps. Il est capable de suivre aussi bien la tête que le torse d’une personne, mais aussi chacun de ses doigts. Ce qui nécessite le recours à un dispositif doté de 500 caméras capturant toutes les poses sous différents angles. Et a permis de constituer une vaste base de données.

Toutes les images, capturées en 2D, sont ensuite passées par un « détecteur de point clef » pour identifier les différentes parties du corps et les étiqueter. Grâce aux points clefs, elles sont ensuite triangularisées pour aider les algorithmes de tracking à comprendre comment chaque pose apparaît différemment. Avec ces données, le système peut déterminer la façon dont la main entière se présente quand elle se trouve dans une position particulière, même si certains doigts sont masqués.

Suivre les mouvements des joueurs… sans capteurs

Avec toutes ces connaissances, le dispositif est désormais capable de fonctionner dans une configuration plus légère avec une seule caméra et un ordinateur portable. Les chercheurs ont publié leur code pour encourager les expérimentations du public.

En ce qui concerne la réalité virtuelle, cela pourrait permettre de suivre les mouvements des joueurs de façon plus fine, en se passant de certains capteurs. Une voiture autonome serait aussi en mesure de deviner si un piéton s’apprête à traverser. Lors de retransmissions sportives, la position exacte de chaque joueur serait déterminée ne temps réel. Et dans le domaine médical, certaines pathologies comme l’autisme ou la dépression seraient susceptibles d’être mieux approchées. Les exemples d’applications sont légion.

Quant aux assistants domestiques, ils pourraient anticiper vos souhaits sans que vous ayez besoin de les verbaliser. Ce qui vaut à IEE Spectrum cette remarque ironique : « Lorsque vous pleurerez en silence, le visage dans vos mains parce qu’un robot aura pris votre travail, ce dernier pourra vous tendre un mouchoir »

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Amélie Charnay