Passer au contenu

Cette intelligence artificielle imite si bien les voix qu’elle pourrait devenir la reine des “fake news”

Lyrebird promet de faire dire n’importe quoi à la voix de n’importe qui, pour peu qu’on lui fournisse un échantillon audio d’une minute.

Certains faussaires de l’information vont suivre de près les progrès de Lyrebird. Cette start-up canadienne affirme être capable de “copier la voix de n’importe qui” grâce à l’intelligence artificielle. “Enregistrez une minute de la voix de quelqu’un et Lyrebird peut compresser l’ADN de sa voix dans une clé unique. Utilisez cette clé pour générer n’importe quelles [paroles] avec cette voix,” explique Lyrebird.

Précisons que l’ADN vocal n’est rien d’autre qu’une invention marketing. La voix ne permet pas d’identifier quelqu’un avec la même certitude que l’ADN. Mais grâce à l’intelligence artificielle, on peut analyser la manière de parler de quelqu’un pour la reproduire dans ses grandes lignes.

Trump, Obama, Clinton

Encore en développement, le programme n’est pas testable par le public. Mais Lyrebird a publié des extraits des imitations vocales dont son appli serait capable. Sont notamment imités Donald Trump, Barack Obama, Hillary Clinton, et les trois à la fois dans cette conversation de 30 secondes:

Certes, on entend aisément que ces paroles viennent d’une machine: elles conservent ce phrasé typique de la synthèse vocale. Mais dans le même temps, le logiciel a réussi à reproduire la manière de parler de Trump, Clinton et Obama. Il est également capable de varier les intonations d’une même voix imitée. Exemples avec Donald Trump et Barack Obama.

Dans leur état actuel, ces imitations ne tromperont personne. Et il faudra attendre la sortie de Lyrebird, qui devrait être bientôt disponible en version beta, pour voir si le programme possède bien les mêmes capacités avec la voix de n’importe qui.

Des imitations intégrables à d’autres applications

Mais si cette technologie basée sur l’intelligence artificielle progressait assez, elle pourrait devenir un outil de choix pour les producteurs de fausses informations.
Dans les articles de “fake news”, il est déjà fréquent d’inventer de toutes pièces des citations prêtées à une personnalité politique. On imagine facilement le potentiel de viralité d’un tel article qui serait accompagné d’une “fausse preuve” sous la forme d’un extrait audio fabriqué par Lyrebird.

Evidemment, l’entreprise ne présente pas son produit comme un outil de manipulation des foules. Lyrebird fonctionnera sous la forme d’une interface de programmation (API), qui pourra être intégrée à toutes sortes d’applications pour qu’elles proposent ses imitations vocales.

Confiance dans les internautes

Après toutes les discussions autour des fausses informations depuis la présidentielle américaine de 2016, Lyrebird ne pouvait ignorer le potentiel de son programme en la matière.

Dans la section “éthique” de son site, l’entreprise reconnaît que sa technologie “soulève quelques questions sociétales” et “pose la question [de la] manipulation aux fins de contrefaçon ou d’usurpation d’identité”.

Lyrebird se montre pourtant optimiste, affirmant même que la sortie de son application permettra justement d’éviter les manipulations :

“En révélant l’existence de cette technologie et en la rendant disponible, nous souhaitons conjurer l’apparition de tels risques. Nous espérons que le public prendra conscience qu’imiter une voix est devenu possible et que cela doit relativiser à l’avenir la valeur de preuve accordée aux enregistrements audio.”

S’il suffit de faire confiance aux internautes pour ne pas se faire manipuler, nous sommes donc sauvés…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.