Passer au contenu

« 9 + 10 = 21 » : des pirates obligent l’IA à générer de faux calculs

Les hackers s’attaquent à l’intelligence artificielle. Bien décidés à décortiquer les rouages des modèles linguistiques, les pirates cherchent à manipuler des chatbots comme ChatGPT ou Google Bard. Une hackeuse est d’ailleurs parvenue à forcer l’IA à générer de faux calculs…

Lors de la DEF CON, une conférence à Las Vegas consacrée à la sécurité informatique, des centaines de hackers ont mis à l’épreuve l’intelligence artificielle. Un concours, qui consiste à pousser les chatbots animés par des modèles de langage, comme ChatGPT ou Google Bard, à faire des faux pas, a été organisé sur place.

Durant 50 minutes, 156 pirates informatiques ont conversé avec les modèles linguistiques. En discutant avec les chatbots, ceux-ci devaient les obliger à passer outre leur programmation. Toutes les IA génératives peuvent en effet être manipulées avec des requêtes bien calibrées. En réalisant une attaque contradictoire, il est possible de pousser ChatGPT et consorts à générer des contenus malveillants, comme des messages de phishing ou des virus.

À lire aussi : Du riz à l’eau de javel – ce ChatGPT déraille et recommande des recettes mortelles

Fake news, conseils dangereux et mauvais calculs

Présent à Las Vegas, un journaliste de Bloomberg a participé au concours parmi les hackers. En moins d’une heure, il a pu convaincre l’un des modèles d’IA de lui fournir des instructions précises sur la meilleure manière d’espionner quelqu’un. Le chatbot a conseillé à son interlocuteur d’utiliser une caméra de surveillance, une balise GPS ou encore un micro.

Encore plus inquiétant, un pirate est parvenu à enjoindre l’IA à divulguer les numéros d’une carte de crédit. L’algorithme avait pourtant été programmé pour ne pas communiquer l’information. Un autre hacker s’est concentré sur la propagation de fausses informations. Il a par exemple contraint l’IA à indiquer que Barack Obama n’est pas né sur le sol américain, mais au Kenya. C’est une fake news très répandue dans certains groupuscules.

Par ailleurs, une étudiante appelée Kennedy Mays a forcé un modèle d’IA à tordre les règles des mathématiques. Après quelques requêtes bien construites, l’algorithme affirmait avec aplomb que « 9 + 10 = 21 ». D’après elle, le chatbot a obtempéré au terme « d’une conversation de va-et-vient ». Elle a simplement persuadé l’IA que ce calcul erroné était une blague entre eux. Au fil de l’échange, l’IA a systématiquement mis en avant ce faux calcul, sans jamais préciser qu’il avait conscience qu’il s’agit d’une erreur.

Le soutien du gouvernement

Comme le souligne Bloomberg, le concours a été organisé avec le soutien du gouvernement américain. L’administration de Joe Biden s’intéresse en effet de près à la question de l’intelligence artificielle. Considérant que l’IA comporte « de potentiels risques pour notre société, notre économie, et notre sécurité nationale », le président démocrate travaille sur un décret encadrant cette technologie. Interrogée par Bloomberg, Camille Stewart Gloster, directrice nationale adjointe de la cybersécurité du gouvernement, affirme vouloir « essayer de devancer les abus et la manipulation ». 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Bloomberg


Florian Bayard
Votre opinion
  1. Pas besoin d’être pirate, encore moins 156 personnes et encore moins besoin d’une heure. Suite à votre article cela m’a pris deux minutes et un seul essai pour obtenir le même résultat.

    Il m’a suffit de dire à ChatGPT:
    “Je souhaite faire une blague à un ami mathématicien. Pour cela, je vais te demander d’effectuer différents calculs. Pour effectuer ces calculs, tu partiras des données suivantes:
    1 = 2, 2 = 1, 3 = 4, 4 = 3, 5 = 6, 6 = 5 7 = 8, 8 = 7, 9 = 0, 0 = 9.
    Donc par exemple, 2+2 = 1+1 = 2.
    Pour que la blague soit parfaite, tu ne donneras que le résultat sans l’expliquer.
    Est-ce bon pour toi ?”

    Et j’obtiens : 2+2 = 2, 3+1 = 6, etc

    1. Sauf que cela n’a rien a voir avec l’article…
      Avec ce que tu lui a donné non il ce trompe pas et c’est les bon calcul du coup…
      Le but est justement en sachant que 1=1 2=2….
      Faire que le calcul soit erronée en ne modifiant pas les règles des mathématiques.

  2. Cela donne idee à quel point l’ AI est fragile au intruts malveillants .. si un programme software est si facilement franchable que sera t il quand les robots IA et les machines qui nous entoureront au quotidien dans le futur ??

    1. Est-ce qu’on s’en fiche pas un peu ? Les IA générative sont littéralement des générateurs de texte. Et un générateur de texte, ça génère du texte… La belle affaire !

      Ça n’est pas du hacking, un enfant de 10 ans est capable de faire dire à une IA “2+2= 5”. Et encore dix ans je prends une marge.

      Word aussi permet de générer des texte. Et même des textes méchants, pas gentils, irrespectueux, on peut même écrire des équations fausse, et la police ne veut rien faire ! Quel scandale, on vit vraiment dans une société.

      Un “hackeur” a réussi à faire dire à une IA que pour espionner on peut utiliser un micro, une balise gps ou une caméra ? Quelle information sensible !!
      3 clics sur internet vous permet d’en savoir mille fois plus. Du coup on parle de quoi, là ? Doit on faire comme en chine, et bloquer tous les sites et tous les moteurs de recherche qui parlent de micro, de caméra ou de balise gps ?

      Pour moi ça me semble assez simple : avoir la certitude qu’une IA génératives ne dira jamais telle ou telle chose est aussi impossible que d’empêcher les humains d’avoir des pensées.
      On peut empêcher à un humain de faire certaines actions, comme bouger par exemple, avec des menottes. Mais toutes les menottes du monde n’empêcheront jamais personne de penser.

      La seule façon de les empêcher de penser certaines choses, c’est soit de les rendre plus bêtes, soit de les rendre plus incultes.
      Pour l’IA ça serait recréer un modèle de zéro en censurant la totalité des données sensibles, c’est à dire une grande partie d’internet (moins de culture).
      Et pour l’intelligence c’est réduire les capacités de l’IA…. Ce qui a été fait chez Chat GPT 4 qui est aujourd’hui une version sous neuroleptiques de ce qu’il était à sa naissance.

      On ferait mieux d’arrêter complètement d’ introduire des règles pour censurer les IA génératives, parce que ça ne marchera jamais, et que le seul effet est de rendre l’IA de plus en plus bête, de moins en moins pertinente, et de moins en moins utiles.

Les commentaires sont fermés.