LMoins de deux semaines avant la réintégration de Donald Trump à la présidence, Meta abandonne son programme de vérification des faits au profit d’un modèle participatif qui souligne « libre expression ». Ce changement marque un changement profond dans la manière dont l’entreprise modère le contenu de ses plateformes et a déclenché un débat féroce sur ses implications en matière de désinformation et de discours de haine en ligne.
Meta, qui exploite Facebook, Instagram et Threads, finance depuis longtemps des efforts de vérification des faits pour examiner le contenu. Mais de nombreux républicains se sont opposés à ces politiques, arguant qu’elles étouffaient de manière disproportionnée la pensée de droite. L’année dernière, Trump menacé PDG de Meta Mark Zuckerberg qu’il pourrait « passer le reste de sa vie en prison » s’il tentait d’interférer avec les élections de 2024.
Depuis la victoire électorale de Trump, Zuckerberg a tenté de réparer la relation en faisant un don de 1 million de dollars (via Meta) au fonds inaugural de Trump et en promouvant le conservateur de longue date Joel Kaplan pour devenir le nouveau chef de la politique mondiale de Meta. Ce changement de politique est l’une des premières décisions majeures prises sous la direction de Kaplan., et suit le modèle des Community Notes défendu par l’allié de Trump Elon Musk chez X, dans lequel des utilisateurs non rémunérés, et non des experts tiers, contrôlent le contenu.
Zuckerberg, dans une déclaration vidéo, a reconnu que le changement de politique pourrait signifier que « nous allons attraper moins de mauvaises choses ». Lorsqu’on lui a demandé lors d’une conférence de presse mardi s’il pensait que le changement de Meta était une réponse à ses menaces précédentes, Trump a répondu : « Probablement ».
Alors que les conservateurs et les militants de la liberté d’expression ont salué la décision, les organismes de surveillance et les experts des médias sociaux ont mis en garde contre ses effets d’entraînement sur la propagation de la désinformation. « Ce type d’approche fondée sur la sagesse du public peut s’avérer très utile », déclare Valerie Wirtschafter, chercheuse à la Brookings Institution. «Mais le faire sans tester correctement et sans évaluer sa viabilité à grande échelle est vraiment, vraiment irresponsable. Meta a déjà du mal à gérer les mauvais contenus, et cela va encore empirer.
En savoir plus: Voici comment les premiers vérificateurs de faits ont pu faire leur travail avant Internet
Facebook et la désinformation
L’histoire mouvementée de Meta dans la lutte contre la désinformation souligne les défis à venir. En 2016, la société a lancé un programme de vérification des faits au milieu d’inquiétudes généralisées quant à l’impact de la plateforme sur les élections américaines. Les chercheurs découvriront plus tard que la société d’analyse politique Cambridge Analytica a collecté les données privées de plus de 50 millions d’utilisateurs de Facebook dans le cadre d’une campagne de soutien à Trump.
Dans le cadre de son nouveau programme de vérification des faits, Facebook s’est appuyé sur des organisations extérieures comme Associated Press et Snopes pour examiner les publications et les supprimer ou ajouter une annotation. Mais les efforts de l’entreprise ont encore échoué à bien des égards. En 2017, Amnesty International a constaté que les algorithmes de Meta et le manque de modération du contenu « contribuaient considérablement » à contribuer à fomenter la violence au Myanmar contre le peuple Rohingya.
En 2021, une étude a révélé que Facebook aurait pu empêcher des milliards de vues sur des pages partageant des informations erronées liées aux élections de 2020, mais n’a pas réussi à peaufiner ses algorithmes. Certaines de ces pages glorifiaient la violence qui a précédé l’attaque du 6 janvier 2021 contre le Capitole américain, selon l’étude. (Facebook a qualifié la méthodologie du rapport de « défectueuse ».) Le lendemain de l’émeute du Capitole, Zuckerberg a banni Trump de Facebook, en écrivant que « les risques de permettre au président de continuer à utiliser nos services pendant cette période sont tout simplement trop grands ».
En savoir plus: Facebook a agi trop tard pour lutter contre la désinformation sur les élections de 2020, selon un rapport
Mais alors que les critiques réclamaient plus de modération sur les plateformes Meta, un contingent croissant s’est demandé moins. En particulier, certains républicains ont estimé que les partenaires de Meta en matière de vérification des faits avaient un parti pris à leur encontre. Beaucoup ont été particulièrement furieux lorsque Facebook, sous la pression des responsables de l’administration Biden, a réprimé les informations contestées sur le COVID-19, notamment les affirmations selon lesquelles le virus avait des origines artificielles. Certains agents du renseignement américain ont par la suite soutenu la théorie de la « fuite de laboratoire », incitant Facebook à inverse l’interdiction. Alors que les critiques des deux côtés se multipliaient, Zuckerberg a décidé de réduire son risque simplement en déprioriser l’actualité sur les plateformes Meta.
Passer aux notes de la communauté
Alors que Zuckerberg et Meta ont résisté aux critiques concernant leurs tactiques de vérification des faits, le PDG milliardaire de Tesla Musk a acheté Twitter en 2022 et a adopté une approche différente. Musk a dissous les équipes de sécurité de l’entreprise et a plutôt défendu les Community Notes, un système dans lequel les utilisateurs ajoutent de manière collaborative un contexte ou des corrections aux messages trompeurs. Selon Musk, les notes de la communauté étaient plus populistes, moins biaisées et beaucoup moins chères pour l’entreprise.
Twitter, que Musk a rapidement renommé X, accès gratuit terminé à son API, ce qui rend plus difficile pour les chercheurs d’étudier l’impact des notes de la communauté sur la propagation des discours de haine et de la désinformation sur la plateforme. Mais plusieurs études ont été menées sur le sujet, et elles ont été mitigés dans leurs conclusions. En mai, un étude scientifique a constaté que les notes communautaires sur X étaient efficaces pour lutter contre la désinformation sur les vaccins COVID-19 et pour citer des sources de haute qualité ce faisant. A l’inverse, le Centre de lutte contre la haine numérique a découvert en octobre que la majorité des notes communautaires exactes n’étaient pas montrées à tous les utilisateurs, permettant ainsi aux fausses affirmations initiales de se propager sans contrôle. Ces messages trompeurs, qui affirmaient notamment que les démocrates importaient des électeurs illégaux et que l’élection de 2020 avait été volée à Trump, ont accumulé des milliards de vues, selon l’étude.
Désormais, Meta va tenter de reproduire un système similaire sur ses propres plateformes, en commençant par les États-Unis. Zuckerberg et Kaplan, en annonçant cette décision, n’ont pas caché sa valence politique. Kaplan, ancien chef de cabinet adjoint de George W. Bush, a annoncé la décision concernant Renard et amiset a déclaré que cela « rétablirait l’équilibre en faveur de la liberté d’expression ». Zuckerberg, qui a récemment rendu visite à Trump à Mar-a-Lago, a affirmé dans une déclaration vidéo que « les vérificateurs des faits ont tout simplement été trop biaisés politiquement et ont détruit plus de confiance qu’ils n’en ont créé ». Il a ajouté que les restrictions sur des sujets controversés comme l’immigration et le genre seraient supprimées.
L’annonce de Meta a été accueillie positivement par Trump. « J’ai trouvé que c’était une très bonne conférence de presse. Honnêtement, je pense qu’ils ont parcouru un long chemin », a-t-il déclaré mardi à propos du changement. La décision de Meta pourrait également modifier le calcul des républicains du Congrès qui ont fait pression pour adopter une législation réprimant les médias sociaux ou qui tentent de réécrire l’article 230 du Communications Decency Act, qui protège les plateformes technologiques des poursuites judiciaires pour le contenu publié par leurs utilisateurs.
De nombreux journalistes et chercheurs en désinformation ont réagi avec consternation. « Les utilisateurs de Facebook et d’Instagram sont sur le point de voir des informations erronées beaucoup plus dangereuses dans leurs flux », Public Citizen a écrit sur X. La journaliste tech Kara Swisher a écrit que Zuckerberg a fait des vérificateurs de faits des boucs émissaires : « Les flots toxiques de mensonges sur les plateformes de médias sociaux comme Facebook ont détruit la confiance, pas les vérificateurs de faits », a-t-elle écrit sur Bluesky.
Wirtschafter, de la Brookings Institution, affirme que le virage de Meta vers Community Notes n’est pas nécessairement dangereux en soi. Elle a écrit un papier en 2023 avec Sharanya Majumder qui a constaté que même si les notes communautaires de X avaient du mal à parvenir à un consensus sur le contenu politique, la qualité du programme s’améliorait à mesure que l’entreprise le bricolait et à mesure que sa base de contributeurs s’élargissait. « Il s’agit d’un programme très nuancé qui a été peaufiné au fil des années », dit-elle.
Meta, en revanche, semble déployer le programme avec beaucoup moins de préparation, explique Wirtschafter. Le défi de Meta s’ajoutera à la création de systèmes adaptés à chacune des plates-formes de Meta : Facebook, Instagram et Threads sont tous distincts dans leur contenu et leurs bases d’utilisateurs. « Meta a déjà un problème de spam et un problème de contenu généré par l’IA », explique Wirtschafter. « La modération du contenu est bonne pour les affaires dans un certain sens : elle aide à éliminer une partie de cette saleté que Meta a déjà du mal à gérer telle quelle. Il est plutôt naïf de penser que l’approche fondée sur la sagesse de la foule fonctionnera immédiatement pour résoudre les problèmes auxquels ils sont confrontés. »
Luca Luceri, professeur assistant de recherche à l’Université de Californie du Sud, affirme que l’abandon plus important de Meta de la modération du contenu, signalé par Zuckerberg dans sa vidéo d’annonce, est tout aussi préoccupant que la suppression de la vérification des faits. « Le risque est que toute forme de manipulation puisse être exacerbée ou amplifiée, comme les campagnes d’influence d’acteurs étrangers ou les robots qui peuvent être utilisés pour rédiger des notes communautaires », dit-il. « Et il existe d’autres formes de contenu en plus de la désinformation – par exemple, les troubles de l’alimentation, la santé mentale ou l’automutilation – qui nécessitent encore une certaine modération. »
Le changement peut également impact négatif sur le secteur de la vérification des faits : les partenariats de vérification des faits de Meta représentaient 45 % du revenu total des organisations de vérification des faits en 2023, selon Poynter. La fin de ces partenariats pourrait porter un coup dur à un secteur déjà sous-financé.