Passer au contenu

Google : et si l’humain était le meilleur rempart contre les fake news?

Deux dirigeants de Google nous ont expliqué les changements opérés sur le moteur de recherche pour empêcher la propagation de fausses informations et de contenus offensants. Etonnamment, l’humain joue un rôle primordial.

Pas de révolution immédiate, mais une foi dans les améliorations progressives. Comme Facebook, Google a été accusé de favoriser la propagation de fausses informations sur Internet via son moteur de recherche, en particulier durant l’élection présidentielle américaine. L’entreprise rencontre également des problèmes avec sa fonction d’auto suggestion, basée sur les requêtes des utilisateurs, et qui peut renvoyer des résultats offensants, notamment envers les femmes et des groupes ethniques ou religieux.

Pour combattre ces problèmes, Google a annoncé ce mardi 25 avril des changements d’algorithme et de nouvelles fonctionnalités dans son moteur de recherche. Elles sont censées empêcher la propagation de fausses informations et la promotion de contenus offensants, souvent en se reposant sur les signalements des utilisateurs qui permettront d’améliorer l’algorithme.

Trois changements principaux ont été opérés: 

  • Un ajustement de l’algorithme de recherche, qui doit davantage promouvoir les pages faisant autorité et pénaliser le contenu de faible qualité
  • Une fonctionnalité de signalement des auto suggestions inappropriées. Il fallait jusqu’ici remplir un formulaire sur le site de Google.
  • L’amélioration des options de signalement des Snippets, cette case qui affiche la réponse à une requête sans même avoir à se rendre sur un site. Ce dernier changement est seulement disponible en anglais pour l’instant.

Ben Gomes, vice-président de Google en charge du moteur de recherche, et son collègue Pandu Nayak, nous ont expliqué ces changements et reviennent sur la difficulté de combattre les fausses informations.

Vous aviez déjà effectué des modifications d’algorithme en décembre après la mise en avant de sites néonazis et à plusieurs autres reprises par le passé. En quoi ce changement est-il différent ?

Ben Gomes : Nous travaillons avec près de 10 000 personnes dans le monde qui évaluent la qualité des résultats de recherche de Google et guident l’évolution future de l’algorithme. Le mois dernier, nous avons changé nos directives adressées à ces évaluateurs. Nous leurs demandons désormais de s’assurer, lorsqu’ils voient des contenus manifestement faux, trompeurs ou qui promeuvent la haine, de les noter comme ayant la plus basse qualité possible. Cela ne veut pas dire que ces contenus vont disparaître, mais qu’ils seront moins visibles.

Si vous faites une requête sur la santé ou la finance, nous voulons être sûrs que vous obtenez des informations venant de sites fiables. Dans ces domaines, nous requérons que les résultats proviennent d’une source faisant autorité. Au début, nous ne pensions pas que les actualités avaient besoin de cette exigence.

Pandu Nayak : L’essence de ce changement, c’est que nous mettons l’accent sur la qualité d’une page dans la balance entre la qualité et la pertinence des résultats concernant l’actualité. Pour être clairs, nous ne disons pas qu’un changement différent va se produire aujourd’hui. Il s’agit d’un processus continu dans lequel nous identifions les problèmes et tentons de les régler.

Comment êtes-vous sûrs qu’il ne sera pas possible de s’adapter à ces nouveaux critères pour fausser à nouveau le système ?

Ben Gomes : Nous avons l’habitude de garder une longueur d’avance sur les gens qui essaient de fausser le système. Le problème des fausses informations n’est pas très différent du spam. Je ne pense pas que nous ferons entièrement disparaître les fausses informations. Pouvons-nous dire que ce genre de problèmes de ne se posera plus ? Non. Mais nous pouvons dire que nous ferons de notre mieux et prendrons le problème très au sérieux. Nous devons améliorer l’algorithme, mais il ne sera jamais parfait.

Vous affirmez que dans le trafic quotidien de Google, seulement 0,25% des requêtes renvoient des résultats offensants ou clairement trompeurs. Pourquoi est-ce si difficile de se débarrasser d’un si petit problème ?

Ben Gomes : C’est un petit pourcentage, mais il concerne des résultats très importants ! Et le fait que cette proportion soit petite ne veut pas dire que c’est un problème simple à résoudre. Nous devons trouver la bonne manière d’agir, en combinant les bonnes directives [à donner aux évaluateurs] et les bonnes combinaisons de signaux [sur lesquels agir pour modifier les résultats de recherche].

Vous ne mentionnez pas l’intelligence artificielle (IA), dans laquelle Google investit massivement, comme piste d’amélioration. Cela veut-il dire que vous n’êtes pas près de vous passer d’humains pour évaluer la qualité des résultats de recherches ?

Pandu Nayak : Notre algorithme est fait pour être compris par des humains, mais il est en partie composé d’apprentissage machine [une forme d’intelligence artificielle, NDLR]. L’IA est clairement impliquée dans tous ces changements. Mais même avec l’intégration de l’IA partout, le rôle des humains ne disparaîtra pas.
Au final, Google est un outil pour les humains, ils doivent donc être impliqués pour déterminer ce qui est bien et ce qui ne l’est pas. L’IA n’est pas une solution magique qui va régler tous les problèmes, seulement l’un des outils que nous utilisons pour y arriver.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.