Il a été constaté que la vérification des faits influence les algorithmes de recommandation
Il a été constaté que la vérification des faits influence les algorithmes de recommandation

La vérification des faits peut influencer les algorithmes de recommandation
Les deux interventions ont réduit le score de vote des groupes de traitement par rapport au groupe témoin. Ce graphique montre la taille de l'effet et les intervalles de confiance à 95 % pour 50 régressions linéaires estimant l'effet sur le score de vote à un moment donné dans les 200 premières minutes après la publication de l'article. Crédit: Rapports scientifiques (2023). DOI : 10.1038/s41598-023-38277-5

En janvier 2017, les utilisateurs de Reddit ont pris connaissance d'un cas présumé de terrorisme dans un supermarché espagnol. Ce qu'ils ne savaient pas, c'est que presque tous les détails des histoires, tirés de plusieurs publications de tabloïds et amplifiés par les algorithmes de popularité de Reddit, étaient faux. Maintenant, la recherche de l'Université Cornell a montré que le fait d'inciter les individus à participer activement aux informations qu'ils consomment peut réduire la propagation de ce type de mensonges.

J. Nathan Matias, professeur adjoint de communication, a mené une expérience avec une communauté de 14 millions de personnes sur Reddit et a découvert qu'encourager les gens à participer à la collecte de connaissances pouvait, en fait, faire bouger l'aiguille d'un algorithme.

Suggérer que les membres de la communauté vérifient les faits suspects, a-t-il découvert, a conduit à la suppression de ces histoires dans le classement de Reddit.

"L'une des leçons ici est que nous n'avons pas à nous considérer comme captifs des plateformes technologiques et des algorithmes", a déclaré Matias, auteur de l'étude publiée dans Rapports scientifiques.

En travaillant avec les leaders communautaires bénévoles du groupe de presse mondial sur Reddit et en se concentrant sur les sites Web d'information réputés pour publier des affirmations inexactes, les chercheurs ont développé un logiciel qui observait lorsqu'un membre de la communauté soumettait un lien pour discussion. Le logiciel attribuerait alors à la discussion l'une des trois conditions suivantes :

  • Les lecteurs ont reçu un message persistant les encourageant à vérifier l'article et à commenter avec des liens vers d'autres preuves réfutant les affirmations de l'article.
  • Les lecteurs ont vu le message et ont été encouragés à envisager de voter contre l'article. Les articles de Reddit sont votés par les membres de la communauté, connus sous le nom de "redditors", et classés ; par conséquent.
  • Et dans le groupe témoin, aucune mesure n'a été prise.

Matias a déclaré qu'il s'attendait à ce que la vérification des faits puisse se retourner contre lui. Si la vérification des faits accordait plus d'attention à une histoire non fiable, l'algorithme pourrait la considérer comme un renforcement positif de l'article et lui faire obtenir un classement supérieur en moyenne.

"Il y a le souci que si vous répétez un mensonge assez souvent, cela va-t-il l'ancrer dans l'esprit de quelqu'un?" il a dit. "Et y a-t-il quelque chose de similaire avec ces algorithmes de recommandation qui ne peuvent pas nécessairement distinguer le bien du mal ? Même si vous vérifiez les faits, l'algorithme pourrait voir plus d'engagement et le montrer à plus de gens."

Cela s'est avéré ne pas être le cas. Sur un total de 1 104 discussions d'actualité, compilées de décembre 2016 à février 2017, Matias a constaté que le simple fait d'encourager la vérification des faits - même sans l'invite de vote négatif - provoquait une baisse du classement des histoires de moins 25 points en moyenne. Sur Reddit, cela ferait disparaître une histoire de la première page et serait probablement manquée par un nombre important de lecteurs.

Bien que menée à petite échelle, Matias voit son expérience comme la preuve que les gens peuvent collectivement prendre le contrôle des informations dont ils sont nourris, et pas seulement accepter un régime constant de mensonges.

"On parle beaucoup de cette idée de déterminisme - que les décisions d'un ingénieur quelque part dans la Silicon Valley influencent nos esprits et nous enferment dans certains modèles de comportement", a-t-il déclaré. "Et bien qu'ils aient une influence, ces systèmes sont conçus pour réagir aux humains. Ainsi, lorsque les gens travaillent ensemble pour améliorer nos environnements d'information, les algorithmes peuvent réagir en conséquence.

"C'est un exemple vraiment puissant de quelque chose qui était très pratique pour cette communauté", a-t-il dit, "et qui apporte des contributions fondamentales aux connaissances scientifiques."

Plus d'information: J. Nathan Matias, Influencer les algorithmes de recommandation pour réduire la propagation de nouvelles non fiables en encourageant les humains à vérifier les articles factuels, dans une expérience de terrain, Rapports scientifiques (2023). DOI : 10.1038/s41598-023-38277-5

Fourni par l'Université Cornell

Citation: Fact-checking trouvé pour influencer les algorithmes de recommandation (2023, 2 août) récupéré le 2 août 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top