Passer au contenu

Grâce à l’IA, un criminel clone la voix d’une jeune fille pour extorquer de l’argent à sa mère

Des escrocs utilisent des outils d’intelligence artificielle de clonage vocal pour tenter d’extorquer de l’argent à leurs victimes. Ils font croire qu’un proche est en danger ou enlevé en utilisant sa voix : difficile de ne pas tomber dans le piège, qui peut vous coûter des milliers d’euros.

Quand l’IA est utilisée pour cloner la voix de vos proches et vous arnaquer… Imaginez la scène : vous recevez un coup de téléphone d’un numéro inconnu. Au bout du fil : votre enfant vous supplie de l’aider. Il vient d’être kidnappé et son ravisseur réclame des milliers d’euros. C’est justement ce qui est arrivé à Jennifer DeStefano, une Américaine vivant en Arizona. En décrochant son téléphone, cette mère a entendu sa fille de 15 ans pleurer à chaudes larmes, expliquant avoir « fait une bêtise », avant qu’elle entende un homme dire : « J’ai votre fille. C’est comme ça que ça va se passer. Vous appelez la police, vous appelez n’importe qui, je vais la bourrer de drogue. Je vais faire ce que je veux d’elle et je vais la déposer au Mexique ». L’homme lui réclame un million de dollars, avant de baisser la rançon à 50 000 dollars.

Pour Jennifer DeStefano, les choses sont claires. Sa fille a été enlevée. « C’était complètement sa voix. C’était son inflexion. C’était la façon dont elle aurait pleuré. Je n’ai jamais douté une seconde que c’était elle », témoigne-t-elle auprès de nos confrères de la chaîne de télévision AZ Family, le 10 avril dernier. Ce n’est pourtant pas sa fille de 15 ans qui est au bout du fil. C’est sa voix, clonée par l’intelligence artificielle. La victime de cette tentative d’extorsion s’en est heureusement rendue compte avant que les choses aillent plus loin. Alors qu’elle discutait avec le ravisseur, une de ses connaissances qui a assisté à l’appel a eu la présence d’esprit d’appeler son mari. En quelques minutes, elle a reçu la confirmation que sa fille était saine et sauve.

« On ne peut plus se fier à ses oreilles »

Combien de personnes ont reçu ce type d’appel utilisant un clone vocal et prétextant une urgence familiale, ou un faux enlèvement ? Nul ne le sait, mais ils seraient relativement fréquents. À tel point que le 20 mars dernier, la Federal Trade Commission (FTC), un organisme en charge de la protection des consommateurs aux États-Unis, alertait déjà sur ses coups de fil particulièrement inquiétants. La FTC expliquait que les escrocs demandent souvent aux victimes de virer de l’argent, d’envoyer des crypto-monnaies ou de payer la rançon avec des cartes-cadeaux. Une fois l’argent ou les numéros de cartes-cadeaux transférés, il est presque impossible de les récupérer.

À lire aussi : Une IA vocale détournée à des fins racistes, homophobes et transphobes 

C’est ce qui est arrivé à une famille canadienne il y a quelques semaines, rapportait le Washington Post, le 5 mars dernier. Une personne se faisant passer pour un avocat a expliqué à des parents âgés que leur fils avait tué un diplomate américain dans un accident de voiture, qu’il était en prison et qu’il avait besoin d’argent pour payer ses frais de justice. Il leur a ensuite passé leur fils – la voix clonée -, de quoi persuader les parents d’envoyer 15 000 dollars qu’ils n’ont jamais pu récupérer.

« On ne peut plus se fier à ses oreilles », estime Subbarao Kambhampati, professeur d’informatique à l’université d’État de l’Arizona aux États-Unis, interrogé par la chaîne télé américaine. Selon ce spécialiste, cloner la voix ne nécessite plus des heures d’enregistrement. Désormais, trois secondes suffisent.  Et le résultat est bluffant. « La plupart des clonages de voix parviennent à imiter le timbre et l’émotion. Plus l’échantillon est grand, et plus l’imitation sera parfaite. Évidemment, si vous parlez d’une voix normale, je ne serais pas nécessairement en mesure de cloner votre voix lorsque vous êtes contrarié, mais si j’ai également trois secondes de votre voix contrariée, alors tout est possible », ajoute-t-il.

À lire aussi : Quand l’IA permet de pirater un compte bancaire

Les escrocs qui clonent les voix des proches de leur victime trouvent souvent leurs proies sur les réseaux sociaux, où se trouvent des informations personnelles et parfois, des extraits de voix comme sur des vidéos partagées sur TikTok. La voix va alors être clonée, et les arnaqueurs vont pouvoir lui faire dire tout et n’importe quoi.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : AZ Family


Stéphanie Bascou
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *