Passer au contenu

I/O 2019 : Google prouve que ses IA peuvent être au service du bien et de l’accessibilité

Le géant de Mountain View a fait la démonstration de sa volonté de contribuer au bien de la société. Il a levé le voile sur plusieurs fonctions utilisant des intelligences artificielles pour faciliter la vie de personnes souffrant de handicaps.

Au cours de sa keynote d’ouverture de la Google I/O 2019, le géant américain a, encore plus que les années précédentes, servi un discours où ses recherches en intelligence artificielle sont mises au service des utilisateurs, tout en respectant de plus en plus leur vie privée grâce à des opérations réalisées sur le smartphone.

Outre les démonstrations, au cours desquelles Google a donné divers exemples d’usages « pour le bien » de ses IA (pour mesurer l’élévation des eaux, pour détecter au plus tôt des cancers sur des images médicales, etc.), ce sont trois fonctions bien plus tangibles au quotidien qui ont retenu l’attention.

Live Caption, comprendre chaque mot comme s’il était écrit

La première est suffisamment avancée pour être intégrée dans la prochaine version d’Android Q, qui sortira à la fin de l’été prochain. Elle est destinée aussi bien aux 466 millions de malentendants dans le monde qu’aux personnes qui ont parfois besoin d’un sous-titre pour s’assurer d’avoir bien compris ce qui était dit…

Live Caption s’active d’une simple tape sur l’écran de son smartphone. Dès lors elle sous-titrera tous les médias qui jouent un son sur l’appareil. Il peut s’agir de vidéos, d’un message audio, d’un podcast ou encore d’un enregistrement que vous avez effectué vous-même. Comme la fonction est intégrée dans Android, elle est disponible dans toutes les applications.

Mieux encore, cette fonction s’exécute localement et n’a pas besoin d’accéder à Internet pour pouvoir travailler. Il n’y a donc aucun transfert de données vers les serveurs de Google. Votre vie privée est a priori saine et sauve.

Live Relay, faciliter la communication par téléphone des muets et malentendants

L’année dernière, Google impressionnait avec Duplex, une technologie qui unifiait l’apprentissage machine et une synthèse vocale réaliste pour automatiser la prise de rendez-vous ou la réservation d’une table dans un restaurant.

Cette année, les ingénieurs ont dévoilé Live Relay, un assistant téléphonique capable de décrocher en cas d’appel, de dire à l’interlocuteur qu’il est un assistant et qu’il va retranscrire par écrit tout ce qui sera dit à l’appelé tout en lisant ce que la personne appelée va saisir au clavier.
Afin que l’appelant n’ait pas à attendre trop longtemps, la complétion de saisie permet de répondre plus vite en tapant le texte grâce à des propositions pertinentes et adaptées. En l’occurrence, Google capitalise sur des technologies qu’il a déjà dévoilées et qui semblent marcher de mieux en mieux, preuve que ses algorithmes s’améliorent.

Technologiquement, la réactivité et la précision des retranscriptions texte et voix et voix vers texte semblent incroyables. Mais le plus fascinant est de se dire que cette fonction va mettre à portée du plus grand nombre de personnes ayant des difficultés à communiquer, un outil qui leur facilitera le quotidien et réduira leur isolement éventuel.

Project Euphonia, permettre à Google Assistant de nous comprendre tous

Google Assistant est de loin le plus avancé des assistants intelligents vocaux disponibles sur le marché occidental. Il comprend généralement très bien ce qu’on lui dit. Les choses se compliquent parfois un peu quand on a un accent prononcé dans la langue qu’on utilise. Elles deviennent encore plus compliquées quand l’utilisateur souffre de problèmes d’élocution lourds, comme cela peut arriver après un AVC, par exemple, ou en cas de maladie dégénérative.

Pour inclure ces personnes et leur offrir un assistant fonctionnel, Google a donc lancé son projet Euphonia. De manière schématique, il consiste à demander à des personnes ayant des problèmes pour parler de prononcer des phrases types, comme Comment vas-tu aujourd’hui ? ou Appelle maman. Ensuite, ces échantillons vont servir à entraîner les algorithmes de Google afin que son Assistant puisse comprendre ces formules prononcées de manière différentes.

Mais Euphonia ne s’arrête pas simplement aux paroles. Les chercheurs de Google se sont attelés à faire en sorte que leurs intelligences artificielles soient capables de reconnaître certains sons ou mouvements afin de produire une action en retour. Une fonction qui pourrait permettre à des personnes sévèrement handicapées ou dans l’impossibilité de parler de communiquer plus facilement, que ce soit avec un équipement spécial, via un Google Home ou simplement pour envoyer un SMS.

Source : Blog Google 1, Blog Google 2

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Pierre FONTAINE