Passer au contenu

OpenAI prépare un outil qui détecte les images générées par Dall-E 3

OpenAI a conscience des risques engendrés par Dall-E 3, son nouveau générateur d’images animé par l’IA. La start-up travaille donc sur un outil qui va permettre d’identifier toutes les images conçues par l’intelligence artificielle.

Dans le courant de l’automne, OpenAI va lancer la troisième génération de Dall-E. Intégrée à ChatGPT, cette itération doit permettre à la start-up de rattraper son retard face à des générateurs d’images comme MidJourney, Stable Diffusion ou Firefly d’Adobe. Pour le moment, Dall-E 3  est réservé aux abonnés ChatGPT Plus qui sont membres du programme bêta d’OpenAI.

En amont du lancement de Dall-E 3 en version définitive, OpenAI vient d’annoncer la création d’un outil capable de déterminer si une image a été générée par son intelligence artificielle. Lors du WSJ Tech Live, un événement organisé par le Wall Street Journal, Mira Murati, la directrice des nouvelles technologies de la société, a brièvement évoqué le projet.

À lire aussi : OpenAI et Microsoft sont accusés d’avoir volé des données de millions d’internautes pour former ChatGPT

OpenAI promet un outil efficace pour 99 % des images

Selon elle, l’outil, qui est toujours en cours de tests internes, est capable de repérer une image conçue de toutes pièces par Dall-E dans 99 % des cas. Sur son site web, OpenAI présente le système comme un « classificateur de provenance ». La société précise vouloir le concevoir de manière que les utilisateurs, qui se servent de Dall-E 3 pour générer des créations, ne se sentent pas surveillés, indique le Wall Street Journal.

Grâce à ce futur outil, la start-up espère lutter contre la prolifération de deepfakes et de fake news alimentées par l’IA générative. Pour propager de fausses informations sur les réseaux sociaux, de nombreux internautes n’hésitent pas à concevoir des photomontages avec l’aide de l’IA. Certaines créations sont déjà bluffantes de réalisme. Ces derniers mois, nous avons notamment enregistré une explosion des deepfakes politiques aux États-Unis.

En parallèle, certains individus peu scrupuleux se servent de l’IA pour usurper l’identité d’une personnalité. C’est ainsi qu’un deepfake de Tom Hanks s’est mis à vendre des assurances dentaires en ligne ou qu’un clone du vidéaste MrBeast a précipité les internautes vers un concours frauduleux. Enfin, l’IA s’est également accompagnée d’une hausse des deepfakes pornographiques, réalisés sans consentement.

Pour mémoire, OpenAI avait déjà lancé un outil similaire pour ChatGPT par le passé. Le système, intitulé l’AI Text Classifier, permettait de déterminer avec quelle probabilité un texte a été écrit par l’IA plutôt que par l’être humain. Malheureusement, l’outil s’est rapidement montré imparfait. Le classificateur épinglait parfois des contenus par erreur, et laissait passer une grande quantité de textes rédigés par l’IA au travers de ses filets. Il suffisait en fait de réaliser quelques retouches pour biaiser les résultats. Quelques mois plus tard, la start-up a donc décidé de débrancher l’outil, pointant du doigt son « faible taux de précision ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : Wall Street Journal


Florian Bayard
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *