Passer au contenu

Cette IA similaire à ChatGPT pourrait réussir à lire vos pensées

Des scientifiques ont réussi à traduire en texte des pensées, en utilisant les schémas cérébraux enregistrés par une IRM et une intelligence artificielle similaire à ChatGPT.

Un décodeur de pensées : cette machine qui n’appartenait jusqu’à présent qu’à la fiction est en train de devenir réalité grâce à une intelligence artificielle similaire à ChatGPT. Selon une étude publiée lundi 1er mai dans Nature Neuroscience, des scientifiques ont réussi, pour la première fois, à reconstituer les pensées en langage continu à partir d’enregistrements cérébraux scannés par imagerie par résonance magnétique fonctionnelle (« IRMf »). En d’autres termes, les pensées de trois participants ont été traduites en texte grâce à un décodeur basé sur l’IA, appelé « GPT-1 » dans l’étude.

C’est la toute première fois qu’un langage continu est reconstruit « de manière non invasive » à partir d’activités cérébrales humaines. Jusqu’à présent, les méthodes utilisées avaient de quoi faire frémir : il fallait passer par des électrodes implantées dans le cerveau. Mais ici, les scientifiques ont utilisé à la fois le flux sanguin du cerveau enregistré par une IRMf, et GPT-1 : ce modèle d’IA a été capable de représenter, en chiffres, le sens sémantique de la parole. Concrètement, trois participants ont chacun passé 16 heures à écouter des histoires, allongés dans un scanner. Les chercheurs ont entraîné leur modèle d’IA à déterminer quels mots et quelles phrases étaient associés à tels schémas cérébraux. Une fois cette phase d’entraînements terminée, les participants ont écouté de nouvelles histoires, et le décodeur est parvenu à traduire ce que ces derniers pensaient.

« Nous avons été en quelque sorte choqués que cela fonctionne aussi bien. Cela fait 15 ans que je travaille sur ce sujet… c’était donc à la fois choquant et excitant de voir que cela fonctionnait enfin », a rapporté à nos confrères du Guardian le Dr Alexander Huth, le neuroscientifique qui a dirigé les travaux à l’université du Texas à Austin aux États-Unis.

Des applications pour ceux qui ont perdu l’usage de la parole

Fait amusant : les retranscriptions de pensées différaient de ce que les participants entendaient. La phrase d’un des enregistrements : « Je n’ai pas encore mon permis de conduire » finissait, selon le décodeur de pensées, en : « Elle n’a même pas encore commencé à apprendre à conduire ».  « Ce que nous obtenons, ce ne sont pas les mots exacts que quelqu’un a entendus ou prononcés, (…) c’est la même idée, mais exprimée avec des mots différents », explique de son côté Jerry Tang, un étudiant qui fait partie de l’équipe de chercheurs, à nos confrères de Vice.

« L’objectif du décodage du langage est de prendre les enregistrements de l’activité cérébrale d’un utilisateur et de prédire les mots qu’il a entendus, dits ou imaginés », a-t-il poursuivi. Cette technologie pourrait, à terme, aider les personnes qui ont perdu l’usage de la parole à la suite d’un accident vasculaire cérébral. Elle leur permettrait d’avoir à nouveau la possibilité de communiquer avec le monde extérieur grâce à cet outil, même si pour l’instant, l’appareil IRMf est extrêmement encombrant et immobile.

La mise en garde des scientifiques contre des usages malveillants

En attendant, l’équipe de chercheurs met en garde contre des utilisations malveillantes de cette découverte. Ils rappellent que pour fonctionner, les sujets doivent « coopérer », même si les développements futurs pourraient permettre aux décodeurs de contourner cette « coopération ». Les scientifiques expliquent que chaque décodeur est personnalisé et adapté à un seul participant. Lorsque le modèle personnalisé a été testé sur une autre personne, cela ne fonctionnait pas. À noter aussi que les participants de l’étude ont pu « tromper » le décodeur, en pensant à des animaux ou en imaginant une autre histoire.

À lire aussi : Le pire de ChatGPT : des chercheurs ont poussé l’IA au-delà de ses limites

La machine a également fait des erreurs sur les pronoms, en mélangeant la première et la troisième personne, pour une raison que les scientifiques n’expliquent pas. Dans tous les cas, alertent ces derniers, « les interfaces cerveau-ordinateur doivent respecter la vie privée des personnes », écrivent-ils. Pour éviter toute « utilisation néfaste » de ce type de machine par des gouvernements ou des organisations, ces derniers invitent les législateurs à adopter des politiques qui « protègent la vie privée mentale de chaque personne ». En filigrane, ces derniers mettent en garde : cette technologie pourrait se transformer, à terme, en outil de surveillance de la pensée : une dystopie qui doit, elle, rester dans le champ de la fiction.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Nature Neuroscience


Votre opinion
  1. Et bientôt on sera arrêté avoir d’avoir commis un crime qu’on était supposé faire
    (voir l’excellent film “Minority Report”). Et bien entendu cela permettra d’écarter les
    “gêneurs” en toute légalité.

  2. Pour que ça fonctionne sur une “nouvelle personne”, il faut que l’IA s’entraine sur une grande quantité de personnes.
    Donc c’est pour bientôt.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *