Passer au contenu

Les intelligences artificielles pourraient balayer toutes les défenses numériques

Un rapport pointe des risques imminents de détournement de la puissance des intelligences artificielles, des IA qui pourraient balayer tous les mécanismes de défense numérique… et devenir de vraies armes.

Un drone détourné pour tomber sur une cible, une voiture autonome qui s’en prend à son conducteur, une campagne numérique de dénigrement ciblée à base de deep fake qui détruit une réputation : tous ces scénarios de science-fiction pourraient devenir réalité… rapidement. Un rapport mis au jour par le Financial Times pointe de manière alarmiste les risques liés à un développement rapide et non encadré de l’intelligence artificielle.

Appelé « L’utilisation malveillante de l’intelligence artificielle : prévisions, prévention et réduction (des risques) » (‘’The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation’’) ce rapport d’une centaine de pages a été rédigé par des chercheurs d’Oxford, de Yale, de Cambridge, de l’association Open AI ou encore de l’Electronic Frontier Foundation. Des pointures du secteur qui dressent un constat pessimiste de la situation : l’explosion des performances de l’IA ces cinq dernières années va faciliter la conception de nouvelles cyber-armes en abaissant leur coût. Ce qui va rendre possible non seulement l’expansion des menaces existantes, mais aussi l’introduction de nouveaux types d’attaques.

Le rapport est assez précis dans les menaces potentielles à venir : les drones et les voitures sans pilotes pourraient être utilisées non seulement seuls, mais aussi sous la forme de nuées pour devenir de vraies armes de guerre. Ou comment l’ajout d’intelligence dans les objets de tous les jours amplifie la menace que peuvent représenter les objets du quotidien.

S’ajoute à cela les attaques plus numériques, comme les piratages de comptes, de sites, etc. qui seraient non seulement facilité, mais surtout bien mieux ciblés grâce aux capacités d’apprentissage des IA.

Si les menaces sont simples à identifier, le Financial Times regrette le peu de pistes fournies par le rapport quant à la prévention des dérives de l’IA. Les chercheurs préconisant plus de concertation et des formes d’autocensure – ne pas publier les détails de certains algorithmes trop « sensibles », etc. Mais dans un contexte de compétition acharnée autour de l’intelligence artificielles où s’affrontent les USA et la Chine, les chercheurs ont tendance à faire feu de tout bois et à chercher le meilleur employeur… sans nécessairement penser à toutes les applications de leurs recherches, notamment militaires et/ou au détournements qui peuvent en être faits.

Une chose est cependant sûre : avec l’arrivée des voitures autonomes, il va bien falloir prendre des décisions et poser un cadre autour des intelligences artificielles. Avant qu’il ne soit trop tard.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.