Passer au contenu

Quand l’intelligence artificielle déraille, les conséquences peuvent être bien réelles

Chatbot néo-nazi, classification raciste, mauvaises prescriptions médicales… L’apprentissage automatique se plante plus souvent qu’on ne le pense, et peut-être même de plus en plus.

L’apprentissage automatique est promis à un bel avenir et pas une semaine ne passe sans qu’un expert nous chante les bienfaits de cette technologie pour l’humanité. Pourtant, celle-ci est encore loin d’être parfaite. Plusieurs échecs notoires ont marqué l’actualité ces dernières années et les problèmes soulevés s’avèrent difficiles à résoudre. Voici un florilège des plus grands flops de l’intelligence artificielle.

Microsoft crée un chatbot néo-nazi

Le 23 mars 2016, Microsoft a mis en ligne un robot de discussion baptisé Tay. Il avait la personnalité d’une jeune femme de 19 ans et était conçu pour le fun. Les internautes pouvaient discuter librement avec elle de tout et de rien. L’idée était de montrer, de manière divertissante, à quoi pouvait ressembler un robot de discussion intelligent. Mais le divertissement s’est rapidement transformé en cauchemar.
En l’espace de quelques heures, Tay a adopté l’attitude d’un néo-nazi machiste, fan de Hitler et de Donald Trump. Pourquoi ? Parce que les données d’apprentissage de l’algorithme provenaient, entre autres, des conversations que Tay avait avec les internautes. Certains d’entre eux ont flairé la faille et ont abreuvé le robot de propos haineux. Au bout de seize heures, l’éditeur, ridiculisé, a été contraint de déconnecter Tay qui a disparu à jamais.   

https://twitter.com/tomwarren/status/712953856053919749

Google fait du taggage raciste

Depuis le début, la reconnaissance d’image est le domaine d’excellence de l’apprentissage automatique. L’un des domaines d’application est la classification automatique de photos, ce qui permet de simplifier la gestion d’une photothèque.
Mais en 2015, l’application Photos de Google a mis les pieds dans le plat, en assimilant un couple afro-américain à… des gorilles. Le géant informatique s’est immédiatement excusé et a promis d’y remédier. L’éditeur a-t-il depuis réussi à améliorer l’algorithme de reconnaissance ? Pas vraiment, comme l’a révélé plus tard Wired.
Pour résoudre ce problème, il a tout simplement supprimé la catégorie « gorilles », ainsi que d’autres comme « chimpanzé » ou « singe ». Dès lors, c’est certain, le risque était éliminé. Mais d’un point de scientifique, on ne peut pas dire que cela soit satisfaisant. Mais cela illustre bien l’imperfection de cette technologie.     

IBM Watson se plante sur le cancer

Qui ne se souvient pas de Watson, ce gai-luron en silicium qui, en 2011, a écrasé les humains dans le jeu télévisé Jeopardy. Et c’était loin d’être fini. Selon les communicants d’IBM, on allait voir ce qu’on allait voir. L’ordinateur allait bientôt révolutionner la médecine. Capable d’ingurgiter des tonnes d’études et d’analyses, la machine allait pouvoir formuler des diagnostics et des traitements de manière beaucoup plus fiables.
Mais en 2018, c’est le réveil brutal. Des documents internes d’IBM révélés par StatNews montrent que le docteur Watson recommande souvent de mauvais traitements cancéreux, qui pourraient même se révéler dangereux pour les patients.
Selon le Wall Street Journal, cette nouvelle merveille du monde n’aurait finalement pas apporté grand-chose à la médecine après avoir englouti des milliards de dollars dans des projets aux résultats douteux. Mais ce n’est pas peut-être qu’une question de temps. Les ingénieurs d’IBM, en tous les cas, continuent d’y croire.         

Clockready/Wikipedia

Des peines de prison hautement biaisées

Les algorithmes d’intelligence artificielle s’infiltrent partout, y compris dans les tribunaux. Aux Etats-Unis, certains juges s’appuient sur le logiciel Compas pour évaluer le risque de récidive d’un délinquant ou criminel, ce qui peut avoir une conséquence directe sur la peine de prison qu’ils formulent.
Ce logiciel s’appuie sur des données socioculturelles : personnalité, situation professionnelle et sociale, usage de drogues, lieu de résidence, etc. Mais une enquête de ProPublica a montré que ce logiciel avait tendance de surévaluer nettement le risque pour les personnes noires, indépendamment des autres facteurs sociaux-culturels.
Pourquoi ? Parce que ce logiciel a été « nourri » de façon indifférenciée avec les données socioculturelles disponibles et qu’il a simplement répliqué dans ses prédictions les tendances du passé. Ce procédé est injuste, discriminatoire et manque totalement de transparence.

Les hacks visuels se multiplient

Depuis quelques années, les chercheurs cherchent à savoir si les algorithmes sont faciles à tromper, ou si l’on peut les tromper de manière systématique. La réponse est oui.
En 2014, des chercheurs ont découvert qu’une modification imperceptible à l’œil nu pouvait faire dérailler une intelligence artificielle et confondre un chien avec une autruche.
En 2016, un autre groupe de chercheurs pousse le bouchon un peu plus loin. Il montre que pour chaque réseau neuronal profond, il est possible de trouver une perturbation quasi-imperceptible capable de faire planter les prédictions avec une haute probabilité.
En 2017, des chercheurs de l’université du Michigan ont alors imaginé une attaque appliquée au monde réel. Il suffit d’avoir quelques stickers noir et blanc et de les coller d’une certaine manière sur un panneau « Stop », et hop, la voiture autonome pense qu’il s’agit d’un panneau de limitation de vitesse inférieur à 45 km/h. Ci-dessous, une vidéo de démonstration qui indique, en bas d’image, l’analyse de l’algorithme. A gauche, le panneau Stop n’est reconnu qu’au dernier moment.

Interrogé par Le Monde, Omar Fawzi, l’un des chercheurs, se veut néanmoins rassurant. Ces dernières attaques n’ont été testées que sur des réseaux de neurones académiques dont on connaissait toutes les spécifications. Ce qui n’est pas le cas des réseaux de neurones commerciaux. Toutefois, on sait aussi que la sécurité par l’obscurité n’a jamais été une bonne solution.
Colmater ces failles n’est pas très facile. « On sait construire des réseaux de neurones très robustes, mais on ne sait pas pourquoi cela fonctionne et quelles sont les limites », explique le scientifique. Le hacking des intelligences artificielles, c’est certain, va gagner en importance.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gilbert KALLENBORN