Passer au contenu

Pourquoi les algorithmes sont encore sexistes

Les algorithmes ne sont pas neutres, ils sont même souvent sexistes. La raison : en apprenant de données “biaisées”, ils deviennent biaisés. Et cela n’est pas près de changer.

Cela fait plusieurs années que des chercheurs et des lanceurs d’alerte s’alarment du sexisme des algorithmes. Et en 2023, rien ne semble avoir changé. Pourtant, il ne s’agit pas d’un problème anodin. Les biais et préjugés sexistes, fréquents dans les systèmes d’IA, ont des conséquences dans la vie quotidienne des femmes, allant de la discrimination à des problèmes de sécurité et de respect de la vie privée. Dans une foule de domaines, les femmes sont moins protégées ou favorisées que les hommes, à l’image des ceintures de sécurité et des airbags uniquement conçus pour protéger des corps masculins. Et dans le monde numérique, on retrouve les mêmes discriminations, parfois en pire.

Pour le comprendre, il faut remonter au premier cas d’algorithme sexiste à avoir été médiatisé. En 2014, Amazon teste un nouveau système d’intelligence artificielle censé faciliter le recrutement de ses employés, rapportait Reuters en 2018. Il promettait de présélectionner sur des centaines de CV les candidats parfaits, un gain de temps inestimable pour les ressources humaines. Problème : ce logiciel écartait systématiquement les femmes. Le géant de l’e-commerce a d’abord essayé de rectifier le tir en modifiant ses paramètres, sans succès. Le groupe a fini par cesser de l’utiliser en 2017.

Les algorithmes fournissent une version plus stéréotypée de la réalité

Pourquoi ce logiciel n’aimait-il pas les femmes ? Parce que l’IA, pour son entraînement, repose sur des données. Le problème est que la plupart des données qui existent depuis les années 2000 sont biaisées en faveur des hommes. Si on nourrit par exemple une IA avec des données de Google News, cette dernière va naturellement associer les hommes à des rôles de leader, et les femmes à ceux d’assistante ou de femme au foyer. Car « les algorithmes ne se contentent pas de reproduire la réalité, mais ils “sur-typent” la réalité. C’est-à-dire, à partir des données de l’existant qu’ils ont déjà, ils en fournissent une version plus stéréotypée », détaille Isabelle Collet, informaticienne et professeure à l’Université de Genève, dans une interview à Heidi.News.

À lire aussi : L’intelligence artificielle, un risque pour la communauté LGBT ?

Autre problème : les équipes qui créent ces systèmes d’intelligence artificielle sont majoritairement des hommes. Selon le Forum économique mondial, seuls 22 % des professionnels de l’IA et de la science des données sont des femmes. Or, « comme toutes les technologies, l’intelligence artificielle reflète les valeurs de ses créateurs », souligne Kate Crawford, co-directrice de l’AI New Institute de l’Université de New York, interviewée par nos confrères d’Euronews. Non pas que les programmateurs soient des machistes avérés. Mais si vous travaillez par exemple sur un logiciel de reconnaissance artificielle, vous allez le tester sur vous : et si vous et votre équipe êtes majoritairement des hommes blancs, ce dernier fonctionnera particulièrement bien pour ces profils, et peut-être moins bien sur les femmes à la peau foncée.

Des équipes de développeurs plus mixtes, des solutions techniques…

Interviewée par Les Echos, mardi 7 mars, Mathilde Saliou, autrice de Technoféminisme : comment le numérique aggrave les inégalités, rappelle « qu’un algorithme est un outil construit par des humains, et donc un outil imprégné d’erreurs et de biais (sexistes, racistes…), si brillantes soient les personnes qui l’ont conçu. Or, les hommes ayant fait une école de code ou d’ingénieur sont surreprésentés chez les développeurs. Leur homogénéité sociale fait qu’ils partagent les mêmes oublis, ont les mêmes angles morts ».

Comment rectifier le tir ? Outre les solutions techniques qui pourraient corriger ces préjugés qui ne concernent pas que des discriminations de genre, il faudrait d’abord apprendre à reconnaître les biais, y compris ceux dont on n’a pas conscience. Et c’est un travail à faire qui concerne autant les programmeurs que les utilisateurs.

Lorsque l’on utilise une IA, il faudrait aussi comprendre son fonctionnement, se demander d’où viennent les données utilisées, et ne pas prendre ses recommandations comme argent comptant – ce qui n’est pas toujours évident, d’autant que le fonctionnement de l’IA n’est souvent pas transparent. Enfin, la mise en place d’équipes plus mixtes chez les développeurs permettrait de représenter les points de vue des hommes et des femmes, expliquent Aude Bernheim et Flora Vincent, dans leur ouvrage L’Intelligence Artificielle, pas sans elles. Tout un programme qui se met trop lentement en place.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Les Echos


Stéphanie Bascou
Votre opinion
  1. Je ne sais pas si c’est la mixité des développeurs qui va permettre de solutionner le problème. Je pense plutôt aux données d’apprentissage.

    Perso, il faut considérer les IA comme les enfants. Les enfants évoluent selon les données que l’on alimente lors de la phase d’apprentissage.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *