Passer au contenu

Facebook a fait se perdre une IA dans New York pour lui apprendre à communiquer

Facebook expérimente une méthode iconoclaste pour améliorer la compréhension du langage naturel des machines : leur attribuer le rôle de simples piétons perdus dans New York.

« Les meilleurs systèmes d’intelligence artificielle ont moins de sens commun qu’un rat », avait déclaré Yann LeCun au mois de janvier dernier lors d’un passage à Paris.
Pour le patron de la recherche en intelligence artificielle de Facebook, les machines sont encore très loin d’égaler l’homme. Pour progresser dans ce domaine, les laboratoires FAIR du géant de la high tech suivent plusieurs pistes s’inspirant beaucoup des modèles d’apprentissage humains qui reposent dès la naissance sur les interactions et l’observation de l’environnement.

C’est dans ce cadre, qu’une petite équipe menée par Douwe Kiela et Jason Weston a eu l’idée peu conventionnelle de lancer le projet “Talk the Walk” mettant en scène deux agents (intelligences artificielles), un qui joue le rôle d’un touriste perdu dans New York, et l’autre qui fait office de guide. L’objectif final est de parvenir à une destination précise en disposant chacun d’éléments différents : des vues à 360 degrés de la ville avec des grilles permettant de repérer facilement les intersections pour le touriste, et une simple carte 2D avec des repères génériques comme “hôtel” ou “restaurant” pour le guide. Chacun ne peut montrer à l’autre ce qu’il voit.

De meilleurs résultats que les humains

Les premiers résultats montrent qu’en les entraînant à dialoguer, agir et percevoir à partir de situations très réalistes et non des univers simulés, ces programmes informatiques finissaient par se repérer plus facilement. Car chacun est obligé de décrire à l’autre ce qu’il voit, l’un son emplacement, et l’autre les endroits où passer afin de parvenir à la destination finale.

Attention toutefois à ne pas se méprendre. Si les deux programmes ont rassemblé et compris de nombreux éléments exprimés en langage naturel, ils ont dialogué entre eux en langage synthétique. Le tout avec des résultats supérieurs à ceux obtenus par des humains soumis au même test !

Les chercheurs de Facebook ont développé pour cela un mécanisme appelé MASC (Attention Masquée pour la Convolution Spatiale) qui permet aux modèles de langage utilisés par les agents d’analyser rapidement les mots clés dans les réponses. Son utilisation aurait permis de multiplier par deux la précision des expériences.
Précisons que chaque expérience se terminait lorsque le guide faisait la prédiction que le touriste était arrivé. Si c’était correct, l’épisode était considéré comme réussi. Aucune limite n’était fixée sur le nombre de mouvements ou de communications.

Pas question de fanfaronner pour Facebook qui préfère présenter cette expérience comme une étape de recherche fondamentale soulevant davantage de questions qu’elle n’apporte de réponses. “Notre but ultime est d’atteindre ce haut degré de performance synthétique à travers l’interaction en langage naturel, et d’inviter la communauté à faire de même”, peut-on ainsi lire dans le post du blog FAIR.
Pour inciter d’autres scientifiques à rejoindre le projet, Facebook publie dans la foulée son jeu de données “Talk the Walk”,  le premier ensemble de données de dialogues à grande échelle fondé sur l’action et la perception. Avec l’espoir pas si secret de voir un jour nos assistants intelligents vraiment comprendre ce que leur disent les humains. Alors, et seulement alors, pourront-ils vraiment nous aider.

Source :
Facebook

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Amélie Charnay