Une étude américaine quantifie l’influence des Bots sur la désinformation
Les "bots", ces programmes informatiques qui envoient automatiquement des messages, jouent un rôle "crucial" dans "l'amplification de la désinformation" sur les réseaux sociaux, ont confirmé mardi des chercheurs qui avancent des pistes pour limiter leur influence. Une équipe de l'Université de l'Indiana à Bloomington (Etats-Unis) a en effet essayé de quantifier de façon empirique le phénomène, en décortiquant une partie du trafic sur Twitter lors de l'élection présidentielle américaine de 2016, qui a vu la victoire de Donald Trump. Elle a analysé 14 millions de messages et 400 000 articles partagés sur ce réseau social entre la fin des primaires et l'investiture du président républicain (mai 2016 au 20 janvier 2017). Les scientifiques ont découvert que 6% des comptes Twitter repérés comme étant des "bots" étaient parvenus à disséminer 31% des tweets renvoyant à des contenus "peu crédibles" sur ce réseau social, et 34% des articles provenant de sources jugées peu crédibles par des organisations indépendantes. Ces faux comptes automatisés sont capables de poster du contenu et d'interagir avec d'autres comptes comme s'ils étaient animés par une véritable personne. Les robots peuvent adapter la désinformation à leur cible et viser ceux qui sont les plus susceptibles d'y croire, relèvent les chercheurs dans une étude publiée dans Nature Communications. Les scientifiques ont utilisé un outil de leur laboratoire qui piste la dissémination de la désinformation sur Twitter et un autre qui détecte les "bots" grâce à l'intelligence artificielle. Ils se sont concentrés sur l'utilisation des "bots malveillants", à des fins de propagande et de manipulation.
Leur étude ne mentionne pas quel candidat a pu être favorisé par ces "bots" mais plusieurs travaux scientifiques précédents ont montré que Donald Trump en avait bénéficié davantage que sa concurrente Hillary Clinton. "Nous avons repéré deux stratégies" gagnantes pour ces "bots", explique à l'AFP Filippo Menczer, professeur d'informatique à l'Université de l'Indiana, qui a conduit l'étude. "La première est d'amplifier le message très rapidement, dans les toutes premières secondes qui suivent la publication" de l'information peu crédible. "La seconde est de cibler les comptes Twitter de personnes influentes comme les journalistes et les politiques en les mentionnant ou en répondant aux messages qui les mentionnent. Le but est d'inciter ces personnes à redistribuer le lien à leurs très nombreux abonnés". "Les gens ont l'air d'avoir davantage confiance dans les messages qui semblent provenir d'un grand nombre de personnes", note Giovanni Luca Ciampaglia, co-auteur de l'étude. Aux yeux des chercheurs, réduire le nombre de "bots" pourrait constituer "une stratégie efficace" pour limiter la diffusion de contenus peu crédibles sur les réseaux sociaux. Ils ont mené une expérience avec une version simulée de Twitter et se sont aperçus qu'en supprimant 10% des faux comptes supposés, cela permettrait de réduire fortement le volume de contenus peu crédibles. "Les plateformes des réseaux sociaux connaissent nos méthodes, qui sont publiques et donc disponibles pour elles", souligne Filippo Menczer. "Mais elles doivent se montrer plus prudentes que nous pour minimiser le risque" de fermer des vrais comptes. Autre méthode possible : utiliser des tests de type "CAPTCHA" qui visent à déterminer si les réponses aux questions posées proviennent bien d'un humain. Twitter a reconnu cette année que les "bots" étaient très présents sur le réseau et avaient servi à propager de fausses informations. Le site a adopté une série de règles pour limiter leur influence. (avec l'AFP)