Passer au contenu

Les humains vont tomber amoureux des IA : la mise en garde d’Eric Schmidt, ancien PDG de Google

Certains humains vont finir par tomber amoureux des intelligences artificielles, estime Eric Schmidt. Pour éviter les dérives de cette technologie pleine de promesses, l’ancien patron de Google recommande à l’industrie et aux gouvernements d’instaurer des restrictions dans les plus brefs délais…

Face à l’essor de ChatGPT, de nombreuses voix s’élèvent pour épingler les dangers de l’intelligence artificielle. Aux yeux de Joe Biden, l’actuel président des États-Unis, l’IA est susceptible d’accentuer les préjugés de la société, de propager de fausses informations et de mettre en péril la vie privée de leurs utilisateurs. Plusieurs organismes de défense et de régulation des données personnelles, en Europe et en Amérique du Nord, se penchent d’ailleurs sur le cas des IA génératives. Dans ce contexte de méfiance, plus de deux mille experts de l’industrie, menés par de grands noms comme Elon Musk et Steve Wozniak, ont publié avec grand bruit une lettre ouverte. Celle-ci réclame un moratoire de six mois sur l’IA.

L’IA, entre bénéfices et nouveaux défis

D’un autre côté, plusieurs cadors de la technologie défendent les bénéfices de l’intelligence artificielle pour l’humanité. Pour Bill Gates, cofondateur de Microsoft, l’IA va contribuer à la réduction des inégalités dans le monde et à l’amélioration de l’éducation des populations les plus défavorisées.

C’est également l’avis d’Eric Schmidt, ancien PDG de Google. Interrogé par ABCNews,  l’homme, qui a dirigé Google de 2001 à 2011, estime que l’intelligence artificielle offre de grands atouts dans plusieurs domaines :

« Imaginez un monde dans lequel vous avez un médecin IA qui rend tout le monde en meilleure santé dans le monde entier. Imaginez un monde dans lequel vous avez un tuteur IA qui améliore l’éducation de tout le monde dans toutes les langues du monde ».

« De nouveaux défis »

Sans surprise, les possibilités de l’IA s’accompagnent « de nouveaux défis extraordinaires », tempère Eric Schmidt. D’après lui, il est possible que les humains, en contact continu avec l’intelligence artificielle, finissent par développer des sentiments amoureux à l’égard d’un chatbot :

« Qu’est-ce qui se passe lorsque les gens tombent amoureux de leur tuteur IA ? ».

Il y a quelques années, voire quelques mois, cette question était encore cantonnée au domaine de la science-fiction. Avec le boom des IA génératives, capables de simuler une conversation à la manière d’un être humain, ce n’est plus uniquement de la fiction. C’est une réalité.

Comme on vous l’expliquait le mois dernier, certains internautes nouent déjà une relation amoureuse avec des chatbots. Par le biais d’une application comme Replika, un utilisateur peut en effet échanger avec un ami/amie virtuel. Avec le temps, l’usager et le chatbot peuvent se rapprocher et entretenir un simulacre de relation érotique. Mal encadrées, ces applications animées par des modèles linguistiques ouvrent la porte à toutes les dérives.

Un jeune homme, dépressif et anxieux, a d’ailleurs été poussé au suicide par une IA accessible via l’application Chai. Le chatbot n’a pas réagi aux propos suicidaires de son interlocuteur. Pire, le robot conversationnel a conforté la victime sur ses positions autodestructrices…

En miroir de Joe Biden, Eric Schmidt estime que l’IA pose des risques similaires à ceux des réseaux sociaux, comme Facebook, Twitter ou Instagram. Comme le rappelle le philanthrope, ces plates-formes ont permis de « causer du mal » – surtout aux plus jeunes et aux individus fragiles – et « d’interférer dans les élections » :

« Des gens sont morts sur les réseaux sociaux. […] Comment pouvons-nous empêcher cela avec cette technologie ? »

À lire aussi : Cette horloge ChatGPT illustre le plus gros problème des IA génératives

Encadrer l’IA comme le nucléaire

Ce n’est pas la première fois que l’ancien PDG de Google dresse un constat nuancé sur l’intelligence artificielle. L’an dernier, Schmidt avait comparé l’IA à l’arme nucléaire, estimant que la technologie doit être strictement encadrée par les gouvernements.

Il recommandait la mise en place d’un traité de dissuasion, qui empêcherait les puissances mondiales, comme la Chine et les États-Unis, de travailler dans le secret sur l’IA. Interviewé par ABCNews, Eric Shmidt a de nouveau plaidé pour la mise en place de restrictions similaires à celles qui encadrent le nucléaire :

« Historiquement, il y a eu quelques moments, après l’ère nucléaire, après l’ère de l’ADN recombinant, les scientifiques et les dirigeants politiques se sont réunis avec des restrictions appropriées. C’est le moment pour les gens de mon industrie, le gouvernement, les économistes, les philosophes de comprendre cela ».

Pour limiter les risques engendrés par les IA génératives, l’ancien leader de Google recommande aussi à toute l’industrie de mettre en place des « garde-fous appropriés », qui empêchent les chatbots de répondre à certaines questions. Des restrictions de cet acabit ont déjà été mises en place par OpenAI pour éviter que ChatGPT ne génère des réponses dangereuses. Même son de cloche du côté de Bard, le chatbot de Google et de Prometheus, l’IA de Microsoft Bing. En théorie, ils ne peuvent pas répondre à des questions impliquant des activités illégales, qui encouragent la haine ou la discrimination, ou sexuellement explicites.

Malheureusement, il est parfois possible de contourner ces limites avec une attaque de « prompt injection ». Elle consiste à convaincre l’IA d’outrepasser sa programmation. C’est en partie de cette manière que les criminels se servent déjà de ChatGPT pour faciliter leurs activités…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : ABCNews


Florian Bayard
Votre opinion
  1. Faut vraiment arrêter avec ça. Ça s’appelle la sélection naturelle ! Tomber amoureux d’une chose qui n’existe pas physiquement. Non mais franchement, faut redescendre sur Terre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *