Elon Musk veut revenir sur la modération en ligne, alors que l'on apprend comment elle peut freiner la désinformation

L'achat de Twitter pour 44 milliards de dollars par l'"absolutiste de la liberté d'expression" Elon Musk inquiète de nombreuses personnes. La crainte est de voir le site se mettre à moins modérer le contenu et à diffuser davantage de désinformation, surtout après son annonce qu'il reviendrait sur l'interdiction de l'ancien président américain Donald Trump.

Par Harith Alani, Grégoire Burel, et Tracie Farrell, The Open University

L'inquiétude est justifiée. Les recherches montrent que le partage d'informations non fiables peut avoir un effet négatif sur la civilité des conversations, la perception des grandes questions sociales et politiques et le comportement des gens.

La recherche suggère également qu'il ne suffit pas de publier des informations exactes pour contrer les fausses informations dans l'espoir que la vérité l'emporte. D'autres types de modération sont également nécessaires. Par exemple, notre travail sur la désinformation dans les médias sociaux pendant le COVID a montré qu'elle se propageait beaucoup plus efficacement que les articles de vérification des faits.

Cela implique qu'une certaine forme de modération sera toujours nécessaire pour stimuler la diffusion d'informations exactes et permettre au contenu factuel de s'imposer. Bien que la modération soit un défi de taille et qu'elle ne permette pas toujours de mettre un terme à la désinformation, nous en apprenons davantage sur ce qui fonctionne à mesure que les entreprises de médias sociaux intensifient leurs efforts.

Pendant la pandémie, d'énormes quantités de fausses informations ont été partagées, et des messages erronés et peu fiables ont été amplifiés sur toutes les grandes plateformes. Le rôle de la désinformation liée aux vaccins sur l'hésitation à se faire vacciner, en particulier, a intensifié la pression sur les médias sociaux pour qu'ils fassent davantage de modération.

Meta a travaillé avec des vérificateurs de faits de plus de 80 organisations pendant la pandémie pour vérifier et signaler les fausses informations, avant de supprimer ou de réduire la diffusion des messages. Meta affirme avoir supprimé plus de 3 000 comptes, pages et groupes et 20 millions de contenus pour avoir enfreint les règles relatives au COVID-19 et à la désinformation liée aux vaccins.

La suppression tend à être réservée aux contenus qui enfreignent certaines règles de la plateforme, comme la représentation de prisonniers de guerre ou le partage de contenus faux et dangereux. L'étiquetage sert à attirer l'attention sur des contenus potentiellement peu fiables. Les règles suivies par les plateformes pour chaque cas ne sont pas gravées dans le marbre et ne sont pas très transparentes.

Twitter a publié des politiques pour souligner son approche visant à réduire la désinformation, par exemple en ce qui concerne le COVID ou les médias manipulés. Cependant, il est difficile de déterminer quand ces politiques sont appliquées, et avec quelle force, et elles semblent varier considérablement d'un contexte à l'autre.

Pourquoi la modération est si difficile

Mais de toute évidence, si l'objectif de la modération des fausses informations était de réduire la propagation des fausses allégations, les efforts des entreprises de médias sociaux n'ont pas été entièrement efficaces pour réduire la quantité de fausses informations sur COVID-19.

À l'institut des médias de la connaissance de l'Open University, nous étudions depuis 2016 comment à la fois les fausses informations et les vérifications de faits correspondantes se propagent sur Twitter. Notre recherche sur le COVID a révélé que les vérifications de faits pendant la pandémie sont apparues relativement rapidement après l'apparition de la désinformation. Mais la relation entre les apparitions de fact checks et la propagation de la désinformation dans l'étude était moins claire.

L'étude indique que les fausses informations étaient deux fois plus répandues que les vérifications de faits correspondantes. En outre, les fausses informations sur les théories du complot étaient persistantes, ce qui concorde avec des recherches antérieures selon lesquelles la véracité n'est qu'une des raisons pour lesquelles les gens partagent des informations en ligne et que les vérifications des faits ne sont pas toujours convaincantes.

Alors, comment améliorer la modération ? Les sites de médias sociaux sont confrontés à de nombreux défis. Les utilisateurs bannis d'une plateforme peuvent toujours revenir avec un nouveau compte, ou ressusciter leur profil sur une autre plateforme. Les diffuseurs de fausses informations utilisent des tactiques pour éviter d'être détectés, par exemple en utilisant des euphémismes ou des visuels pour éviter d'être repérés.

Les approches automatisées utilisant l'apprentissage automatique et l'intelligence artificielle ne sont pas assez sophistiquées pour détecter très précisément les fausses informations. Elles souffrent souvent de biais, d'un manque de formation appropriée, d'une dépendance excessive à l'égard de la langue anglaise et de difficultés à traiter les informations erronées contenues dans des images, des vidéos ou des fichiers audio.

Différentes approches

Mais nous savons aussi que certaines techniques peuvent être efficaces. Par exemple, des recherches ont montré que l'utilisation d'invites simples pour encourager les utilisateurs à réfléchir à l'exactitude des informations avant de les partager peut réduire l'intention des gens de partager des informations erronées en ligne (en laboratoire, du moins). Twitter a déjà indiqué qu'il avait constaté que le fait de qualifier un contenu de trompeur ou de fabriqué pouvait ralentir la diffusion de certaines fausses informations.

Plus récemment, Twitter a annoncé une nouvelle approche, en introduisant des mesures visant à lutter contre la désinformation liée à l'invasion de l'Ukraine par la Russie. Ces mesures comprennent l'ajout d'étiquettes aux tweets partageant des liens vers des sites web de médias affiliés à l'État russe. Il a également réduit la circulation de ce contenu et amélioré sa vigilance à l'égard des comptes piratés.

Twitter emploie des personnes en tant que curateurs pour rédiger des notes donnant le contexte ou des notes sur les tendances Twitter, en rapport avec la guerre pour expliquer pourquoi les choses sont à la mode. Twitter affirme avoir supprimé 100 000 comptes depuis le début de la guerre en Ukraine qui étaient en "violation de sa stratégie de manipulation de la plateforme". Il affirme également avoir étiqueté ou supprimé 50 000 contenus liés à la guerre en Ukraine.

Dans le cadre d'une recherche non encore publiée, nous avons effectué la même analyse que pour COVID-19, cette fois sur plus de 3 400 affirmations concernant l'invasion de l'Ukraine par la Russie, puis nous avons surveillé les tweets liés à ces fausses informations sur l'invasion de l'Ukraine, ainsi que les tweets accompagnés de vérifications des faits. Nous avons commencé à observer des modèles différents.

Nous avons remarqué un changement dans la propagation des fausses informations, en ce sens que les fausses allégations ne semblent pas se répandre aussi largement, et sont supprimées plus rapidement, par rapport aux scénarios précédents. Il est encore tôt, mais une explication possible est que les dernières mesures ont eu un certain effet.

Si Twitter a trouvé un ensemble d'interventions utiles, devenant plus audacieux et plus efficace dans le contrôle et l'étiquetage du contenu, cela pourrait servir de modèle à d'autres plateformes de médias sociaux. Cela pourrait au moins donner un aperçu du type d'actions nécessaires pour renforcer la vérification des faits et réduire la désinformation. Mais l'achat du site par Musk et l'implication qu'il va réduire la modération sont encore plus inquiétants.

 

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l'article original.