Passer au contenu

Pourquoi il devient urgent de  «décoloniser» l’intelligence artificielle

Le développement et l’usage des technologies sont trop souvent biaisés par des préjugés racistes hérités de notre passé colonial. La filiale de Google, Deepmind, appelle à s’en débarrasser.

Après la colonisation, la domination occidentale a survécu sous d’autres formes :  économique, politique ou encore culturelle. La technologie n’y fait pas exception et l’intelligence artificielle reproduit et renforce même parfois ces rapports de force, lorsque aucune réflexion n’est engagée sur les préjugés de ceux qui la mettent en œuvre.

La filiale de Google, DeepMind, et l’Université d’Oxford ont publié ce mois-ci un article dans la revue Philosophy et Technology, repéré par Engadget. Le texte a été rédigé avant la mort de George Floyd. Il est plus que jamais d’actualité. Un vif débat a d’ailleurs eu lieu récemment sur Twitter entre l’expert en IA de Facebook Yann Lecun et l’informaticienne et chercheuse Timnit Gebru.
Cette dernière s’est efforcée d’expliquer que l’IA ne présente pas seulement des biais à cause de bases de données qui peuvent être faussées. La façon dont elles sont développés est toute aussi critique car les critères retenus ne sont pas neutres et résultent toujours de choix humains, comme le faisait déjà observer la mathématicienne Cathy O’Neil dans Algorithmes, la bombe à retardement.

Le dumping éthique

Les auteurs de l’article relèvent de nombreuses pratiques problématiques. Certaines sont connues comme la police prédictive qui cible davantage les habitants des quartiers les plus pauvres, ce qui aboutit à leur surreprésentation dans les arrestations.
Les logiciels de reconnaissance faciale identifient également moins bien les personnes noires, conduisant à davantage d’erreurs. D’autres cas sont moins documentés comme les tests bêta de technologies qui ont lieu en toute impunité dans des pays non occidentaux.
C’est ainsi que la société Cambridge Analytica a expérimenté ses outils algorithmiques lors d’élections au Nigeria en 2015 et au Kenya en 2017. On appelle cela du dumping éthique. Cela consiste à délocaliser des études, des tâches et même des expérimentations sur des humains dans des pays aux législations moins protectrices.

Il faut enfin s’interroger sur ceux et celles qui développent l’intelligence artificielle et qui décident des normes et des réglementations. Qui sont-ils ? D’où viennent-ils ? On trouve peu de personnes africaines, d’Asie du Sud ou latino-américaines.
Sans le partage de leur expérience et leur participation au débat, les biais demeureront. Ainsi, lors du G20 de 2019, l’Inde, l’Indonésie et l’Afrique du Sud ont refusé de signer l’Osaka Track, une déclaration visant à régir la circulation des données, car leurs préoccupations n’avaient pas été prises en compte.

Philosophie, histoire, géographie, sociologie, les sciences humaines ont donc beaucoup à apporter à l’intelligence artificielle, affirme la publication. Il est impératif de s’en nourrir pour parvenir à élaborer une approche scientifique critique. Dans l’espoir aussi de rééquilibrer les rapports sociaux et de mettre sur pied de nouvelles méthodes d’IA plus justes et plus inclusives.

Source : Decolonial AI, Engadget

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Amélie CHARNAY