Passer au contenu

Comment l’algorithme de TikTok joue sur nos émotions pour nous rendre accro

Une enquête du Wall Street Journal prouve que l’application n’hésite pas à pousser du contenu nuisible pour l’utilisateur du moment que cela augmente son engagement.

Pour comprendre comment fonctionne l’algorithme de TikTok, les journalistes du Wall Street Journal ont créé une centaine de faux comptes automatisés, qui ont regardé des milliers de vidéos sur le réseau social. Une personne réelle ne fonctionne heureusement pas tout à fait comme un bot et ces résultats sont à nuancer. Néanmoins l’expérience a permis d’établir quelques constatations préoccupantes.

Elle montre comment les vidéos recommandées perdent progressivement en variété et finissent par nous enfermer progressivement dans une niche de contenus. Ils prouvent aussi que l’application trouve parfois un intérêt à appuyer là où ça fait mal chez les utilisateurs, pour qu’ils continuent à regarder.

Les utilisateurs deviennent captifs d’un seul sujet

Officiellement, TikTok prétend que son algorithme de recommandation se base sur de multiples paramètres comme la langue utilisée, votre emplacement ou encore la manière dont vous interagissez avec les vidéos. L’idée étant de proposer des contenus en rapport avec vos goûts et centres d’intérêt.
Dans les faits, l’équipe d’investigation du journal s’est aperçu que c’était surtout le temps passé sur une vidéo, qui était scruté, et aussi le fait de la revoir, ou de la mettre sur pause.

Les bots du journal d’investigation étaient juste dotés d’une adresse IP pour géolocaliser le profil et d’une date de naissance. Il a suffi cependant de 40 minutes à deux heures pour que l’algorithme de TikTok comprenne ce qui retenait le plus l’attention des profils que le Wall Street Journal avait imaginé. Pour l’expert français Guillaume Chaslot, qui a travaillé par le passé pour YouTube et qui est interviewé dans l’enquête, l’algorithme de TikTok est ainsi bien plus performant que celui de la plate-forme de Google.

A découvrir aussi en vidéo :

 

Même les contenus les plus nuisibles sont mis en avant

A l’ouverture d’un compte, c’est une sélection de vidéos parmi les plus populaires et collectée par des modérateurs, qui est mise en avant. Lorsqu’une première vidéo intéresse l’utilisateur, cela fournit aussitôt une mine d’informations exploitables à partir du nom du contenu, de son auteur, de la bande son, de la description et des hashtags.
Au fil du temps, ce sont les vidéos choisies par l’algorithme, qui vont remplacer celles des modérateurs. Et la diversité des sujets va progressivement se restreindre, vous entraînant dans une spirale infernale.

Vous vous retrouvez enfermé dans une thématique toujours plus précise, une sorte de niche de contenus. Il peut s’agir de quelqu’un qui exprime un intérêt pour les animaux en général et qui finit par se voir proposer essentiellement des contenus sur des bouledogues français. Mais aussi d’une personne mélancolique qui verra apparaître majoritairement des vidéos sur la tristesse et la dépression au bout d’une seule journée. Il ne s’agit donc pas forcément d’un sujet qui vous plaît ou qui vous apporte du plaisir. Cela peut aussi concerner des émotions négatives.

Pour sa défense, TikTok a précisé au Wall Street Journal que 7% des vidéos mises en avant aident les utilisateurs à découvrir autre chose. C’est bien peu. D’après Guillaume Chaslot, 90 à 95% des vidéos vues proviendraient des recommandations sur TikTok contre 70% sur YouTube.

On voit bien comment les réseaux sociaux peuvent contribuer, dans les cas les plus extrêmes, à augmenter le mal être des utilisateurs en jouant sur leurs vulnérabilités, leurs peurs ou leur propension à croire à des théories du complot.

Source : The Wall Street Journal

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Amélie CHARNAY