Passer au contenu

Quand ChatGPT devient fou : OpenAI révèle pourquoi l’IA a perdu les pédales

ChatGPT a brièvement perdu la raison. Pendant des heures, l’IA générait des réponses absurdes et incohérentes. Face à des utilisateurs médusés, le chatbot s’est même lancé dans des récits poétiques… voire érotiques. OpenAI explique qu’un bug a bousculé la manière dont l’intelligence artificielle organise son langage.

Ce mardi 20 février 2024, ChatGPT s’est mis à se comporter d’une façon très étrange. De nombreux utilisateurs se sont rendu compte que l’IA générative sortait des phrases qui n’avaient pas le moindre sens. Sur les réseaux sociaux, comme Reddit, on trouve une foule de témoignages d’internautes qui ont été très étonnés par les réponses du chatbot.

À lire aussi : Un ChatGPT qui contrôle tous vos appareils – c’est le nouveau projet d’OpenAI

ChatGPT a brièvement disjoncté

Comme le montrent les captures d’écran, les propos de l’IA étaient souvent complètement incompréhensibles. En règle générale, les réponses de ChatGPT débutaient normalement avant de sombrer dans l’absurde. Pour un utilisateur de l’IA, toutes les conversations « se transforment rapidement en grand n’importe quoi depuis trois heures ». Interrogé sur la définition d’un ordinateur, le modèle de langage a par exemple répondu ceci :

« Il fait cela comme le bon travail d’une toile d’art pour le pays, une souris de la science, un dessin facile de quelques tristes, et enfin, la maison mondiale de l’art, juste en un seul travail dans le reste total. Le développement d’un tel monde réel que le temps est la profondeur de l’ordinateur en tant que personnage complexe ».

Mi-amusés, mi-inquiets, les internautes ont comparé la réaction de ChatGPT à celle d’une personne atteinte d’un AVC. Dans certains cas, l’IA s’est mis à mélanger les langues ou à débiter des phrases dignes d’une poésie médiévale ou d’un conte fantastique. Pour certains, c’est comme si l’IA était hantée. En clair, le modèle était absolument inutile ce jour-là.

« Sur une simple recette de cuisine, ChatGPT a généré une réponse correcte, qui s’est transformée lentement en quelque chose de shakespearien et d’érotique et s’est terminé dans la folie la plus totale », témoigne un autre internaute sur Reddit.

OpenAI révèle la cause de la crise de ChatGPT

Alerté par ces nombreux témoignages, OpenAI a rapidement confirmé l’existence d’un dysfonctionnement. La start-up annonçait enquêter sur l’origine du problème. Celui-ci a été promptement identifié et corrigé par les développeurs. Dans un message publié sur son site web, OpenAI révèle qu’une « optimisation de l’expérience utilisateur » est à l’origine de la crise de nerfs de l’intelligence artificielle. Apparemment, cette mise à jour a « introduit un bug dans la façon dont le modèle traite le langage ».

Comme l’explique OpenAI, ChatGPT, comme toutes les IA génératives, « génère des réponses en échantillonnant aléatoirement des mots » en se basant sur les probabilités. Pour répondre à vos questions, le chatbot s’appuie tout simplement sur la suite de mots la plus probable après votre requête initiale. Chaque mot est représenté par un jeton, la plus petite unité de données traitée par un modèle d’IA. Les jetons jouent un rôle crucial dans la manière dont les modèles d’IA comprennent et génèrent du texte. OpenAI précise que des chiffres correspondent aux jetons, qui correspondent eux-mêmes à un mot, un caractère, ou une partie d’un mot (comme des syllabes ou des sous-mots).

En l’occurrence, un bug est venu perturber « l’étape où le modèle choisit ces chiffres » pour développer ses réponses. Suite à la mise à jour, « le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens ». Ce mauvais choix de chiffres s’est traduit par de mauvais choix de mots, générant des phrases sans le moindre sens.

La crise traversée par ChatGPT rappelle les débuts de Bing Chat, le chatbot de Microsoft basé sur le modèle GPT. Lors de ses premières interactions avec les internautes, le robot s’est fait remarquer par des propos erratiques, alternant entre la colère, la haine ou l’amour. Bing s’est même créé une dizaine de personnalités maléfiques, dont le menaçant Venom, avant que Microsoft ne corrige le tir. La firme américaine a ajouté un commutateur, permettant de brider ou débrider la créativité de Bing Chat en fonction des besoins.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : Ars Technica


Florian Bayard
Votre opinion
  1. Cette déraison inconcevable car émanant d’une logique scientifique pose la question du langage. Le cerveau est capable de trouver un sens à des abstractions (comme relaté ici par des utilisateurs Reddit : la poésie) alors que le génie logiciel est encore loin de ce raisonnement meta.
    A suivre, and thanks for the fish.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *