Passer au contenu

À quel point l’algorithme de Facebook influence-t-il les opinions politiques ?

Meta, la maison mère de Facebook et d’Instagram, a partagé avec des chercheurs de nombreuses données collectées pendant la campagne présidentielle américaine de 2020. Quatre premiers articles ont été publiés à ce sujet, jeudi 27 juillet. Ils montrent que l’algorithme de Facebook ou d’Instagram est influent, mais pas autant qu’on le pensait. Modifier ce dernier, et donc le flux d’actualité pendant trois mois n’entraînerait pas de changement dans les convictions politiques des utilisateurs, selon ces études. Meta et les chercheurs en tirent des conclusions diamétralement opposées. Voici ce qu’il faut en retenir.

Avez-vous déjà posé une question à un chercheur ? Si c’est le cas, vous avez peut-être déjà remarqué qu’il ne vous répondra jamais par un simple oui ou non. Il se lancera dans un long monologue nuancé, argumenté et référencé. Qu’en retiendrez-vous ? C’est tout le problème. Et c’est exactement ce qui s’est produit jeudi 27 juillet, lorsque des chercheurs ont publié leurs résultats de recherches qui visaient à étudier Facebook et son influence sur les élections américaines de 2020.

À la question, Facebook et Instagram ont-ils polarisé les opinions lors de cette Présidentielle américaine, la réponse n’a pas été positive ou négative. Elle a donné lieu à quatre articles, publiés dans les revues scientifiques Science et Nature. Douze autres articles devraient suivre dans les prochains mois. Et sans surprise, Meta – la maison mère de Facebook et Instagram – et les chercheurs n’en tirent pas les mêmes conclusions. Ils ont même des avis diamétralement opposés quant à l’interprétation de ces résultats.

Quel était l’objet de ces recherches ?

À l’origine, les chercheurs voulaient répondre à la question suivante : Facebook et Instagram ont-ils joué un rôle dans la polarisation des opinions pendant les élections américaines de 2020 ? Depuis des années, les réseaux sociaux et leurs algorithmes sont accusés d’influencer les opinions politiques, et d’attiser les divisions – notamment en raison de ces « bulles de filtres », qui font que chaque utilisateur ne voit que des contenus correspondant à ses idées politiques ou ses goûts.

Dans le passé, des recherches avaient suggéré que les algorithmes des réseaux sociaux favorisaient la polarisation et contribuaient à diffuser plus rapidement et plus largement des contenus clivants ou haineux. Frances Haugen, l’ancienne salariée de Facebook devenue lanceuse d’alerte, avait expliqué en 2021, documents à l’appui, que l’algorithme de Facebook « exposait les adolescents à davantage de contenus anorexiques » et « attisait même la violence ethnique » en Éthiopie. Mais hormis ces quelques données, les chercheurs n’avaient jusqu’à présent pas ou peu accès aux data des plateformes.

À lire aussi : Meta va-t-il pouvoir continuer à suivre ses utilisateurs européens, après cet arrêt de la Cour de justice de l’UE ?

Or Meta, en 2020, avait bien voulu partager des données avec 17 scientifiques externes, dont des chercheurs de l’université du Texas, de New York, de Princeton. « (Ces derniers) n’ont pas été rémunérés par l’entreprise, ont été libres de décider des analyses à effectuer et ont eu le dernier mot sur le contenu des documents de recherche », souligne Science. À quoi ont-ils eu accès ? Ces scientifiques n’ont pas travaillé sur des données brutes, mais sur des data qui ont été anonymisées ou sélectionnées par Meta. Dans l’une des études, près de 23 000 utilisateurs de Facebook et 21 000 utilisateurs d’Instagram ont accepté de jouer le jeu entre la fin du mois de septembre et la fin du mois de décembre 2020. Pour une autre recherche, Meta a fourni aux chercheurs les données anonymisées de 208 millions d’utilisateurs de Facebook. Chacune des quatre études avait un objectif différent.

Que montrent ces recherches ?

Que nous apprennent-elles ? Ces recherches montrent que Facebook et Instagram ont une influence sur les informations que les utilisateurs lisent sur la plateforme – puisque c’est leur algorithme respectif qui décide de l’ordre et du choix des contenus visibles sur un fil d’actualité de l’utilisateur. Mais pour les chercheurs, il n’est pas certain que ces contenus influent réellement sur les opinions des utilisateurs.

Plus précisément, une étude montre que les pages et les groupes Facebook ont bien joué un rôle important dans la diffusion de fake news parmi les conservateurs américains présents sur la plateforme. Mais d’autres études indiquent que le fait de supprimer certaines fonctions clés des algorithmes n’a « pas eu d’effet mesurable » sur les opinions politiques ou le comportement des utilisateurs. Les chercheurs ont par exemple constaté que le fait de retirer les contenus repartagés d’un fil d’actualité, ou de passer d’une sélection des contenus par l’algorithme de Facebook à un flux chronologique, ne changeait pas la donne. Ces modifications n’ont pas rendu les utilisateurs moins polarisés, elles ne leur ont pas fait changer d’opinion politique.

« Modifier l’algorithme, même pendant quelques mois, ne changera probablement pas les opinions politiques des gens », confirment les chercheurs Talia Stroud, de l’université du Texas à Austin, et Joshua Tucker, de l’université de New York, qui menaient conjointement une des quatre études, cités dans un communiqué de l’université du Texas.

« Ce que nous ne savons pas, c’est pourquoi. Cela pourrait être dû au fait que la durée pendant laquelle les algorithmes ont été modifiés n’était pas assez longue, ou que ces plateformes existent depuis des décennies déjà, ou encore que si Facebook et Instagram sont des sources d’information influentes, elles ne sont pas les seules sources des gens », ont-ils ajouté.

Pour autant, cela ne signifie pas que les réseaux sociaux n’ont aucune responsabilité dans la polarisation des opinions politiques, un phénomène particulièrement observé aux États-Unis, relativisent les chercheurs.

« Personne ne dit que cela signifie que les médias sociaux n’ont pas d’effets négatifs », souligne par exemple Brendan Nyhan, politologue à l’université de Dartmouth et l’un des chercheurs ayant travaillé dans l’une de ces études, interviewé par nos confrères de CNBC.

Il n’y aurait pas eu de changements d’opinion, notamment parce que la modification opérée sur l’algorithme n’aurait duré que trois mois. Or, il faudrait beaucoup plus de temps pour faire bouger les lignes, avance Stephan Lewandowsky, professeur de psychologie cognitive à l’université de Bristol au Royaume-Uni, interviewé par nos confrères

Des points de vue opposés entre Meta et les chercheurs

Mais pour Meta, ces études sont enfin la preuve que son algorithme, si critiqué, ne polarise pas et ne radicalise pas les électeurs. C’est précisément ce qu’a écrit Nick Clegg, le président des affaires internationales de Meta, dans un article de blog publié en même temps que les articles de recherche. Selon ce dernier, les recherches publiées jeudi 27 juillet remettent en cause les affirmations selon lesquelles « les réseaux sociaux sont la cause d’une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou des croyances politiques ».

De quoi faire réagir les chercheurs qui estiment que « Meta a exagéré ou décrit mal certains des résultats », rapporte le Wall Street Journal. La déclaration faite par Nick Clegg n’est pas celle que nous aurions fait, disent-ils en substance. En coulisse, les chercheurs et Meta auraient échangé en début de semaine, raconte le quotidien financier américain. Meagan Phelan de Science aurait notamment mis les points sur les i, en déclarant à des responsables de Meta que selon les résultats de la recherche, « les algorithmes Meta jouent un rôle important dans ce qui divise les gens ». Pour preuve, les utilisateurs conservateurs sont, par exemple, « beaucoup plus cloisonnés dans leurs sources d’information, en partie en raison de processus algorithmiques », que les utilisateurs libéraux, a-t-elle ajouté.

Une collaboration gagnante pour Meta

La divergence de points de vue a été telle que Meta a demandé à la revue Science de modifier le titre de son article qui a trait à l’une des quatre études, et qui s’intitule « Câblé pour diviser », relate encore le Wall Street Journal. Le groupe de Mark Zuckerberg aurait demandé l’ajout d’un point d’interrogation, a expliqué Science à nos confrères. Et la requête a été refusée. La revue scientifique a estimé que sa présentation de la recherche était pertinente, et que le titre devait bien être « Câblé pour diviser », sans le moindre point d’interrogation.

Pour Jennifer Jacquet, une chercheuse en sciences sociales à l’université de New York interviewée dans les colonnes de Science, Meta ne peut sortir que gagnant de ces recherches. Outre le fait que le groupe contrôle quelles données sont étudiées par les chercheurs, la scientifique estime que le groupe de Mark Zuckerberg a adopté une stratégie semblable à celle suivie par certaines entreprises en matière de lutte contre le réchauffement climatique. Lorsque des sociétés se sentent menacées par une règlementation, précise-t-elle, elles collaborent avec des scientifiques prestigieux. Cela leur fait non seulement gagner du temps, mais cela peut même s’avérer gagnant, sur le long terme. Ces entreprises ont ainsi réussi à saper le consensus scientifique sur le changement climatique, estime-t-elle. Meta parviendra-t-il à faire de même pour ses algorithmes et son influence sur les opinions et la démocratie ?

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Science


Stéphanie Bascou