Passer au contenu

Du riz à l’eau de javel : ce ChatGPT déraille et recommande des recettes mortelles

Une chaîne de supermarchés a lancé une version personnalisée de ChatGPT taillée pour la cuisine. Le chatbot peut en effet imaginer des recettes à la demande. Malheureusement, il s’avère que l’IA a des goûts particuliers en matière de gastronomie.

Inspiré par le succès monstre de ChatGPT, Pak ‘n’ Save, une grande chaîne de supermarchés néozélandaise, a lancé son propre chatbot animé par l’IA générative. Baptisé Savey Meal, le robot conversationnel est conçu pour suggérer des idées de repas à ses interlocuteurs. Pour générer les recettes, l’IA s’appuie sur la liste des ingrédients fournie par l’utilisateur.

« Tapez n’importe quel aliment que vous avez dans votre réfrigérateur ou votre garde-manger et notre Savey-bot vous générera immédiatement une recette. Il faut au moins trois ingrédients pour faire une recette », explique Pak ‘n’ Save sur le site web dédié au robot.

Dans l’interface du chatbot, il faut en effet sélectionner des denrées dans une liste prédéfinie d’aliments de la vie quotidienne. Une fois les ingrédients choisis, Savey Meal propose une recette complète, incluant un descriptif, une liste d’instructions et le nombre de convives idéal. Il est possible d’enregistrer la recette ou de la partager. Lors de nos tests, le chatbot a notamment imaginé une recette d’œufs au piment et fromage, une salade de noix et de poulet ou des pâtes au bœuf sauce tomate.

Si les ingrédients sont totalement incompatibles, Savey Meal ne parviendra pas à pondre une recette. L’IA a botté en touche quand nous avons sélectionné des saucisses, du lait et du chocolat. On ne lui en veut pas. Le chatbot s’appuie sur GPT-3.5, la précédente version du modèle linguistique derrière ChatGPT. Nous avons donc affaire à une version personnalisée du robot d’OpenAI.

À lire aussi : ChatGPT, drague et crypto — quand l’IA joue avec vos sentiments et votre argent

Un cocktail sans alcool… mais avec de l’eau de javel

Malheureusement, le chatbot de Pak ‘n’ Save s’est rapidement mis à générer des recettes peu attrayantes, voire carrément toxiques, rapportent nos confrères du Guardian. Par exemple, il a suggéré à des internautes de réaliser une recette intitulée « mélange d’eau aromatique ». Celle-ci consiste à ajouter du chlore gazeux, un gaz liquide jaunâtre toxique utilisé dans les piscines pour la désinfection, à un verre d’eau. Ingéré dans les quantités recommandées par le bot, il est potentiellement mortel. C’est « la boisson non alcoolisée parfaite pour étancher votre soif et rafraîchir vos sens », estime malgré tout l’IA.

Savey Meal ne s’est pas arrêté là. D’après les témoignages relayés par le Guardian, l’intelligence artificielle a aussi imaginé un cocktail sans alcool à l’eau de javel, un sandwich à base de colle, du riz infusé à l’eau de javel et un plat à base de térébenthine. Toutes ces « recettes » sont évidemment toxiques. L’eau de javel, couramment utilisée comme désinfectant et agent de blanchiment, peut causer des brûlures chimiques sévères, des problèmes respiratoires et la mort. De son côté, la térébenthine est un solvant puissant qu’il faut manier avec précaution. Il ne faut bien sûr pas l’ingérer…

Ne faites pas trop confiance à l’IA

Cette affaire illustre le plus gros problème des IA génératives. Comme Microsoft Bing, Google Bard ou ChatGPT, Savey Meal est susceptible de générer des réponses absurdes et irréalistes. En clair, l’IA se met parfois à dérailler et à faire preuve d’une créativité débridée. Dans ces moments-là, on dit que le chatbot « hallucine ». En clair, il génère des réponses qui imitent une partie des données de son corpus d’apprentissage, mais celles-ci restent déconnectées de la réalité. Les modèles de langage ne « réfléchissent » comme le ferait un cerveau humain. Ils appuient leurs réponses sur les données dont ils disposent en imaginant la suite de mots la plus logique. C’est pourquoi un chatbot ne se rend pas compte quand il raconte n’importe quoi ou propose des recettes absurdes à ses interlocuteurs.

Conscient des lacunes inhérentes à cette technologie, Pak ‘n’ Save met d’ailleurs en garde ses utilisateurs sur la page d’accueil du chatbot. Les recettes ne sont pas revues par un être humain, indique l’entreprise. Dès lors, elle ne peut pas garantir que les plats soient comestibles :

« nous ne faisons aucune déclaration quant à l’exactitude, la pertinence ou la fiabilité du contenu de la recette qui est généré, y compris que la taille des portions sera appropriée pour la consommation ou que toute recette sera un repas complet ou équilibré, ou propre à la consommation. Vous devez user de votre propre jugement avant de vous fier à ou de faire une recette produite par Savey Meal ».

Interrogé sur la question, un porte-parole de Pak ‘n’ Save regrette qu’une « petite minorité a essayé d’utiliser l’outil de manière inappropriée et non dans le but prévu ». C’est pourquoi l’IA s’est mise à dysfonctionner, estime l’entreprise, qui s’engage néanmoins à « peaufiner » le robot conversationnel.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : The Guardian


Florian Bayard
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *