Passer au contenu

Aldebaran : « Nos robots seront des compagnons utiles »

Le fabricant français de robots humanoïdes met le cap sur le grand public avec la commercialisation en 2015 de Pepper, qui devrait devancer celle de Nao. On fait le point avec Rodolphe Gélin, le directeur de la recherche d’Aldebaran Robotics.

Au mois de juin dernier, Aldebaran Robotics a dévoilé son nouveau robot Pepper et l’arrivée à son capital du groupe japonais Softbank. Retour sur cet évènement avec Rodolphe Gélin, directeur de la recherche de cette société française depuis 2012 et ancien chercheur au CEA.

01net : Pepper était-il un secret industriel jusqu’au mois de juin dernier ?

Rodolphe Gélin : Oui. Nous avons été contacté il y a deux et demi par la société japonaise Softbank qui souhaitait mettre des robots dans ses boutiques pour accueillir les clients. Elle voulait un effet de surprise, donc elle nous a demandé de travailler dans le plus grand secret sur le sujet et sur le fait qu’elle investisse dans Aldebaran. On avait six mois pour livrer un premier prototype et deux ans pour que le robot soit opérationnel. Du coup, rien que sur l’année qui vient de s’écouler, on a dû embaucher 200 personnes. Principalement pour travailler sur Pepper.

Qu’est-ce que projet a changé pour Aldebaran ?

Jusqu’à maintenant, nos robots n’avaient été que des objets de laboratoire. Et nos clients, des chercheurs qui les traitaient avec déférence. Là, le défi, c’était que n’importe qui allait pouvoir rencontrer Pepper. On devait atteindre un niveau de performance qui soit compatible avec la mise en présence du grand public.

Voir un aperçu de ce que peut faire Pepper en vidéo

Comment avez-vous collaboré avec les équipes de Softbank ?

Les équipes de Softbank ont décrit leurs besoins et formé des gens pour développer des applications sur leur cœur de métier. Mais on a gardé le pilotage sur tout ce qui était interaction homme machine.

Quelles sont les différences techniques entre Nao et Pepper ?

Comme les délais étaient courts pour Pepper, on est parti de notre savoir-faire sur Nao. Nao étant une plate-forme de développement, les mêmes outils étaient disponibles pour Pepper. Il a aussi les mêmes bras avec des modules cylindro-sphériques mais avec davantage de doigts et un système breveté d’adaptation des mouvements en fonction de l’objet qu’on lui met dans la main. Pepper, c’est un peu la grande sœur de Nao, en réalité. D’ailleurs, pour nous, Pepper est une femme. Son prénom fait référence à la secrétaire d’Iron Man.

Petit à petit, il a quand même fallu qu’on fasse des innovations, notamment au niveau des roues… On a aussi inventé des nouveaux capteurs, de nouveaux modes de commande, de pilotage.

Pepper se déplace aussi beaucoup plus vite…

Oui, Pepper se différencie de Nao par sa jambe unique, une articulation au-dessus de ses roues, un genou, une hanche qui font que la cinématique est un peu différente. Il y a trois roues omnidirectionnelles qui permettent au robot de glisser un peu comme sur un tapis volant sans avoir à manœuvrer pour faire un détour. C’est idéal pour circuler dans un environnement où il y a beaucoup de monde.

Mais du coup, il a fallu améliorer le système anticollision. Pour cela, on a ajouté des capteurs qu’on a développé nous-même. Le principe est le suivant : par défaut, le robot considère que le sol autour de lui est complètement plat, donc il projette des lignes dessus. Tant qu’il voit ces lignes qui ne sont pas déformées, il en déduit que le sol est bien plat mais dès qu’il voit que les lignes se déforment un petit peu, il en déduit qu’il y a un obstacle donc il va ralentir puis s’arrêter.

Quels sont les progrès en termes d’interactions homme-machine ?

On a doté Pepper d’une caméra 3D de type Kinect avec des systèmes qui permettent d’évaluer les distances. On s’en sert un peu pour la navigation mais surtout pour l’interaction homme machine. On aussi de nouveaux logiciels de détection de sourires et de reconnaissance de visage. Le robot peut ainsi déceler une émotion en détectant si la tête est penchée d’un côté ou de l’autre, si la personne regarde en l’air, si elle sourit, etc.. Nous sommes en constante progression et chaque avancée sert à tous nos robots : Pepper, Nao ou Romeo. Tout l’intérêt de conserver les mêmes plates-formes logicielles.

Qu’est-ce que Pepper est capable de faire aujourd’hui ?

Aujourd’hui, Pepper reconnaît la présence de personnes devant lui. En laboratoire, il reconnait une personne, lui demande son nom, détecte son âge et son sexe. L’idée, c’est qu’il puisse immédiatement saluer quelqu’un en lui disant « Bonjour Monsieur », ou « Bonjour Madame » ou « Bonjour mon petit » et qu’il soit plus ou moins familier. Cela fera une grande différence. On va aller de plus en plus loin dans la perception et l’adaptation du comportement du robot.

Et le partage d’informations entre les robots ?

Cela fait partie de nos sujets de recherche mais cela reste délicat d’un point de vue du respect de la vie privée. Idéalement, ce serait bien qu’un Pepper qui vive chez moi et qui apprend quelque chose en fasse profiter les autres Pepper. Mais l’utilisateur doit pouvoir choisir les informations qu’il veut partager. On aimerait bien aussi qu’un client qui entre dans n’importe quelle boutique soit reconnu par tous les Pepper. Techniquement c’est possible, après il faut mettre des barrières, juridiques, légales, éthiques pour que cela se passe dans de bonnes conditions et que les gens ne se sentent pas espionnés. Il faut qu’on trouve notre chemin là-dedans.

Quels sont les principaux freins ?

Le point d’entrée le plus dur, c’est la reconnaissance de la parole. Une fois que le robot a compris ce que vous lui dites, tout est possible. Il pourra, comme le dit Bruno Maisonnnier, devenir l’interface ultime. Télécommander un volet roulant qui ouvrira la porte, c’est de la plomberie mais tous les tuyaux existent déjà.

On a déjà fait de gros progrès en reconnaissance vocale grâce à Nuance, dont nous utilisons le logiciel, excepté pour le japonais. Ils sont très en avance et on a beaucoup travaillé avec eux sur la localisation du son. Grâce à eux, on a compris qu’il fallait placer des micros directionnels sur la tête de Pepper. Du coup, il peut entendre des personnes qui lui parlent à deux mètres, même s’il y a un bruit de fond.

Parlez-nous de la commercialisation.

Pepper sera disponible à la vente grand public au mois de février 2015 au Japon. Et pour Nao, on espère très prochainement pouvoir faire un lancement grand public. Ce qui était notre objectif depuis le départ d’ailleurs.

Et les applications ?

Nous sommes comme Apple, qui ne peut pas développer pas toutes les applications de ses smartphones. C’est pour cela qu’on a besoin de développeurs extérieurs. On a avait déjà une communauté de 300 développeurs. Mais lors du dernier Techfest au Japon, plus de 600 développeurs sur 1000 se sont déclarés intéressés pour nous rejoindre. Et nous venons d’ouvrir à Akihabara un atelier qui leur est spécifiquement dédié.

Quelles sont les avancées que vous attendez chez Aldebaran ?

D’un point de vue technologique, nous attendons des processeurs plus puissants et qui consomment moins. De nouveaux capteurs 3D pour Nao et davantage d’autonomie pour nos robots qui doivent pouvoir se recharger tout seuls, ce qui est une demande de Softbank, d’ailleurs.

Sinon, pour le grand public, il va falloir atteindre un niveau de fiabilité, de sécurité et une grande diversité d’applis. Il faut aussi trouver les services que va vraiment rendre le robot, qui ne doit pas être un gadget mais un vrai compagnon utile. Il faut lui trouver les fonctions qui feront dire aux gens que leur vie est meilleure en sa présence.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Amélie Charnay