Passer au contenu

La nouvelle boîte à outils des hackers : le FBI blâme l’explosion de l’IA open source

Les cybercriminels se servent de plus en plus de l’intelligence artificielle. D’après le FBI, les hackers exploitent les IA pour améliorer leurs outils et piéger les internautes. Ce sont surtout les modèles open source qui ont attiré l’attention des pirates…

Les cybercriminels sont également montés dans le train de l’intelligence artificielle. En exploitant des chatbots comme ChatGPT, Google Bard ou Claude, les pirates et autres escrocs parviennent à se faciliter la vie. Ces individus malintentionnés exploitent les modèles de langage avec des requêtes précises et bien calibrées. Celles-ci sont taillées pour convaincre l’IA de passer outre les mesures de sécurité et les restrictions en place par ses créateurs. Avec un peu d’expertise, toutes les IA peuvent d’ailleurs être manipulées.

Alors que l’intelligence artificielle est de plus en plus incontournable, le FBI (Federal Bureau of Investigation) a fini par tirer la sonnette d’alarme. Lors d’une conférence de presse, la police fédérale a estimé que la communauté criminelle avait massivement adopté les modèles linguistiques, rapporte PCMag. Par contre, les modèles les plus populaires auprès des internautes, comme GPT, ne sont pas les préférés des hackers.

À lire aussi : OpenAI sait que ChatGPT risque de voler votre emploi, mais vous ne voudrez pas « revenir en arrière »

Des modèles open source et taillés pour le crime

Selon le FBI, les hackers se tournent plus volontiers vers des modèles open source gratuits et personnalisables que vers des IA contrôlées par des entreprises. Ces modèles, accessibles à n’importe qui sur la toile, peuvent facilement être calibrés pour générer des contenus illicites. De plus, les IA open source, plus légères, réclament moins de puissance de calcul pour fonctionner que les grands modèles mis au point par Google ou OpenAI. Une IA open source, comme Llama, GPT-J ou Apache, peut même tourner sur un ordinateur en local, voire sur un smartphone. C’est évidemment un atout pour un développeur, qu’il s’agisse d’un chercheur lambda ou d’un cybercriminel.

Sans surprise, les criminels sont aussi de fervents utilisateurs des modèles d’IA personnalisés par leurs pairs. Sur le dark web, on trouve une pléthore de chatbots, calibrés par des hackers, pour générer des contenus illégaux, comme des malwares. Ces dernières semaines, deux robots conversationnels uniquement dédiés aux criminels ont d’ailleurs vu le jour sur des marchés noirs, WormGPT et FraudGPT. Ces deux agents sont conçus pour pondre des courriels de phishing persuasifs, coder des virus tels que des ransomwares ou encore orchestrer des attaques. FraudGPT est même capable d’imaginer des logiciels qui falsifient des cartes de crédit. Les chatbots sont vendus au prix fort par le biais d’un abonnement sur le dark web.

Phishing, malware et extorsion

Bien souvent, les pirates se servent de l’IA pour concevoir des pages de phishing, en imitant l’interface d’une plateforme officielle, comme celle d’une banque, indique le FBI. Les agents fédéraux ont également découvert que des IA génératives ont été utilisées pour concevoir des virus polymorphes, capables de modifier leur code à chaque exécution, rendant sa détection par les antivirus traditionnels plus complexe.

Enfin, certains escrocs se servent aussi de la technologie deepfake, qui permet de générer des images et des vidéos falsifiées, pour extorquer de l’argent à leurs victimes. Concrètement, ils se servent de l’IA pour réaliser des montages réalistes et sexuellement explicites, mettant en scène leur cible, détaille le Bureau dans un rapport :

« Le FBI continue de recevoir des rapports de victimes, y compris des enfants mineurs et des adultes non consentants, dont les photos ou les vidéos ont été modifiées avec du contenu explicite. Les photos ou vidéos sont ensuite diffusées publiquement sur les médias sociaux ou les sites pornographiques, dans le but de harceler les victimes ».

Pour créer les montages offensants, les pirates s’appuient sur des photographies disponibles publiquement sur des réseaux sociaux. Par ailleurs, les criminels n’hésitent pas à piéger des personnes âgées en utilisant une IA de clonage vocale. Avec des algorithmes, il est en effet possible d’imiter la voix de n’importe qui en s’appuyant sur un échantillon. La voix clonée peut alors servir à manipuler une victime en la contactant au téléphone. En attendant la voix d’un proche, les cibles baissent trop souvent leurs gardes.

Sauf surprise, les criminels devraient continuer à s’appuyer sur les évolutions de l’IA pour orchestrer leurs activités illicites. Pour le FBI, l’utilisation criminelle devrait augmenter « à mesure que l’adoption et la démocratisation des modèles d’IA se poursuivra ». La police fédérale considère donc l’intelligence artificielle comme « une priorité nationale ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : PCMag


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *