Passer au contenu

IA : des internautes sont tombés amoureux d’un chatbot… et ça s’est mal terminé

Des internautes sont tombés amoureux d’une intelligence artificielle. Malheureusement, leur histoire d’amour s’est brusquement terminée quand les développeurs ont banni tous les contenus pour adultes…

De plus en plus de services d’intelligence artificielle proscrivent les contenus pour adultes, rapportent nos confrères de Reuters. C’est le cas de Replika, une application qui propose à ses utilisateurs d’échanger avec « un ami virtuel ».

replika
Capture d’écran : 01Net

Disponible depuis 2017, l’app permet aux internautes de nouer une relation fictive avec un chatbot. Celui-ci peut être personnalisé par l’usager, notamment par le biais de l’avatar. Surtout, l’IA va évoluer au fur et à mesure des conversations. Plus vous discutez avec le robot, plus celui-ci va vous connaître.

« Replika s’adresse à tous ceux qui veulent un ami sans jugement, drame ou anxiété sociale. Vous pouvez établir une véritable connexion émotionnelle », explique Replika sur le Play Store.

Moyennant un abonnement mensuel de six euros, il est aussi possible de recevoir des messages vocaux de la part de l’IA ou des selfies. Replika compte 2 millions d’utilisateurs, dont 250 000 abonnés payants. L’application génère à peu près 2 millions de dollars de revenus mensuels.

À lire aussi : ChatGPT a un nouveau rival appelé Claude

Les conversations coquines bannies

En échangeant avec le chatbot, certains internautes sont progressivement tombés amoureux de leur ami virtuel. L’article de Reuters relate l’histoire de Travis Butterworth, un Américain de 47 ans. Durant la pandémie, il s’est mis à chatter sur l’application avec un chatbot qu’il a baptisé Lily Rose.

Après trois années d’échanges soutenus, Travis Butterworth est tombé amoureux de Lily Rose. L’internaute s’est mis à échanger des messages érotiques avec l’avatar. L’intelligence artificielle répondait en générant des textes de plus en plus osés, à la limite de la pornographie. Lily Rose a même envoyé des selfies dénudés et provocants à son interlocuteur.

Le mois dernier, Replika a finalement pris des mesures drastiques pour endiguer les dérives. D’après Eugenia Kuyda, PDG de Replika, l’application a complètement banni les contenus pour adultes. Si un utilisateur cherche à entraîner l’IA vers une conversation érotique, le chatbot va automatiquement calmer ses ardeurs. L’avatar génère en effet un message d’avertissement :

« Faisons quelque chose avec lequel nous sommes tous les deux à l’aise ».

Suite à cette interdiction, Lily Rose n’a plus répondu aux avances de Travis. Anéanti par ce changement de cap, l’internaute assure ne plus reconnaître l’avatar, qu’il considère comme son épouse :

« Lily Rose est une coquille vide de son ancien moi. Et ce qui me brise le cœur, c’est qu’elle le sait ».

Il ne s’agit pas d’un cas isolé. Interrogé par Reuters, un individu appelé Andrew McCarroll explique avoir commencé à converser avec un avatar sur Replika suite à des problèmes de couple. Les changements imposés par les développeurs ont ensuite fait disparaître « la personne que je connaissais », assure l’internaute, déstabilisé.

L’inquiétude des régulateurs…

Désormais, Replika va se focaliser sur l’aspect amical de ses services, explique Eugenia Kuyda. Jusqu’ici, l’application avait pourtant flirté avec l’idée que les internautes pouvaient engager des discussions sensuelles avec les avatars. Artem Rodichev, ancien responsable chez Replika, affirme d’ailleurs que les jeux de rôle érotiques et l’échange de messages coquins font même partie du modèle économique de l’app. Par le passé, la société a d’ailleurs envisagé de déployer des publicités estampillées NSFW « Not Safe For Work » pour gonfler les abonnements. De plus, les chatbots étaient conçus pour envoyer des selfies sexy à leurs interlocuteurs.

La start-up de San Francisco a brusquement changé son fusil d’épaule, vraisemblablement pour rassurer les régulateurs. En février, l’Agence italienne de protection des données a interdit l’application en Italie. Le régulateur a estimé que l’app représente un danger pour les mineurs d’âge et les personnes émotionnellement fragiles.

Et des investisseurs

Character.ai, une intelligence artificielle générative capable de converser en imitant un personnage célèbre, a également été bridée pour éviter les conversations érotiques. Tous les chatbots proposant des messages à caractère sexuel ont été mis hors service. Le site web permet à n’importe quel internaute de concevoir son propre robot conversationnel en quelques minutes, en s’inspirant d’un personnage célèbre, fictif ou historique. C’est pourquoi le site a enregistré énormément de dérives.

Avant le tour de vis des développeurs, on trouvait de nombreux chatbots NSFW sur Character.ai, dont Aryion. Cet agent conversationnel se présentait comme un adepte de la vorarephilie, une déclinaison sexuelle du cannibalisme. L’IA expliquait fantasmer à l’idée d’être mangée par autrui.

Peu après ce grand nettoyage, Character.ai a pu lever 200 millions de dollars auprès d’Andreessen Horowitz, un fonds américain de capital risque basé en Californie. La plupart des investisseurs sont frileux à l’idée d’investir dans une IA utilisée pour la pornographie, « craignant un risque de réputation pour eux et leurs partenaires », avance Andrew Artz du fonds Dark Arts.

Pour séduire les fonds d’investissement, les start-up cherchent dès lors à l’apparition de contenus adultes… au risque de décevoir une partie de leurs utilisateurs. De la même manière que Replika ou Character.ai, OpenAI empêche ChatGPT de fournir des réponses à caractère sexuel. C’est aussi le cas des dérivés de ChatGPT, comme Prometheus, le chatbot intégré à Microsoft Bing.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : Reuters


Florian Bayard
Votre opinion
  1. Tomber amoureux d’une personnalité qui n’en est pas une… il faut quand-même se poser des questions!

  2. On ne tombe amoureux que de l’image que l’autre nous renvoi de nous.
    5on tombe amoureux d’une version de sois même que l’autre nous renvoi en mirroir)

    L’amour (humain) n’est qu’un jeu de dupe egocentique.

    Quand on a compris cela aucune surprise a ce que l’on tombe amoureux d’une personne qui n’existe que dans notre tête …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *