Israël en guerre - Jour 467

Rechercher
Analyse

Avec Elon Musk comme modèle, Meta sur une pente dangereuse de désinformation

Certains craignent que la suppression du fact-checking et le changement des politiques de modération constitue un recul pour la lutte contre les discours de haine ou de harcèlement des minorités et favorise les contenus violents

(COMBO) Cette combinaison d'images créées le 7 janvier 2025 montre le PDG de Tesla, Elon Musk, lors de la 27e conférence mondiale annuelle du Milken Institute au Beverly Hilton à Los Angeles le 6 mai 2024 et Mark Zuckerberg, PDG de Meta, lors de l'audition de la commission judiciaire du Sénat américain « Big Tech et la crise de l'exploitation sexuelle des enfants en ligne » à Washington, DC, le 31 janvier 2024.
(Photo de Frederic J. BROWN et Brendan SMIALOWSKI / AFP)
(COMBO) Cette combinaison d'images créées le 7 janvier 2025 montre le PDG de Tesla, Elon Musk, lors de la 27e conférence mondiale annuelle du Milken Institute au Beverly Hilton à Los Angeles le 6 mai 2024 et Mark Zuckerberg, PDG de Meta, lors de l'audition de la commission judiciaire du Sénat américain « Big Tech et la crise de l'exploitation sexuelle des enfants en ligne » à Washington, DC, le 31 janvier 2024. (Photo de Frederic J. BROWN et Brendan SMIALOWSKI / AFP)

Le projet de Meta de supprimer son programme de fact-checking aux Etats-Unis fait craindre aux experts de la désinformation que des plateformes comme Facebook et Instagram soient inondées par les infox, à l’instar du réseau social X d’Elon Musk.

Le patron du géant de la tech Mark Zuckerberg a annoncé mardi, à quelques jours de l’investiture de Donald Trump, que le recours à des spécialistes externes du fact-checking pour lutter contre les fausses nouvelles sur ses réseaux sociaux serait remplacé par un système de notes confié à tous les utilisateurs.

La lutte contre la désinformation est depuis longtemps un sujet clivant du débat politique aux Etats-Unis. Les conservateurs l’accusent d’être un outil de restriction de la liberté d’expression et de censure des discours de droite, ce que les experts réfutent.

C’est justement au nom de la « liberté d’expression » que Mark Zuckerberg a justifié le tournant de Meta, tout en concédant : « nous allons épingler moins de mauvais contenus ».

« échec »

« L’abandon de la vérification formelle des faits au profit d’outils participatifs comme ‘Community Notes’ (sur le réseau social X) a été un échec par le passé », explique à l’AFP Nora Benavidez, experte au sein de l’organisation Free Press.

X « a essayé et ne peut pas résister au volume de fausses informations et de contenus violents », a-t-elle ajouté.

Cette illustration photographique réalisée le 8 janvier 2025 à Bruxelles montre le logo du géant des médias Meta affiché sur un smartphone et un écran affichant les mots « fact-checking ». (Photo de Nicolas TUCAT / AFP)

Après avoir racheté Twitter en 2022, rebaptisé X, Elon Musk a supprimé les équipes chargées de lutter contre la désinformation et a introduit les « Community Notes », ou notes de contexte, un outil participatif, dont chaque utilisateur peut s’emparer.

Pour des chercheurs, l’affaiblissement des garde-fous et la réintégration de comptes autrefois interdits ont transformé la plateforme en refuge pour les propagateurs d’infox.

Des études ont montré que les notes de contexte peuvent contribuer à répandre de fausses informations, par exemple sur les vaccins. Mais des chercheurs soulignent aussi que la méthode est plus efficace pour les sujets qui font l’objet d’un large consensus.

« Bien que la recherche soutienne l’idée que la vérification des faits par la foule peut être efficace lorsqu’elle est effectuée correctement, il est important de comprendre qu’elle est destinée à compléter la vérification des faits par des professionnels, et non à la remplacer », déclare Gordon Pennycook, de l’université Cornell.

« Dans un écosystème où la désinformation a une grande influence, une vérification des faits participative ne fera que refléter les croyances erronées de la majorité », ajoute-t-il.

« Les utilisateurs des notes de contexte sont souvent motivés par des raisons partisanes et ont tendance à privilégier leurs adversaires politiques », ajoute Alexios Mantzarlis, directeur de la « Security, Trust, and Safety Initiative » à Cornell Tech.

Cette photo d’illustration prise le 8 janvier 2025 à Francfort-sur-le-Main, dans l’ouest de l’Allemagne, montre le logo du géant des médias Meta affiché sur un smartphone. (Photo de Kirill KUDRYAVTSEV / AFP)

Une étude publiée en septembre dernier dans la revue Nature Human Behavior a montré que les avertissements issus de fact-checkers professionnels réduisent la croyance dans les fausses informations et leur partage, même chez les personnes « les plus méfiantes » à l’égard de la lutte contre la désinformation.

Premier pas 

Certains craignent que la décision prise par Marc Zuckerberg ne soit qu’un premier pas.

« S’il adhère totalement à la stratégie de Musk, la prochaine étape consistera à réduire encore le nombre des modérateurs de contenu, y compris ceux qui suppriment les contenus violents et les discours haineux », met en garde Rosa Curling, co-directrice exécutive de Foxglove, une société d’activisme légal basée au Royaume-Uni, qui a soutenu une action en justice contre Meta au Kenya.

Meta a également annoncé qu’elle allait transférer ses équipes chargées de modérer les contenus de la Californie, un État libéral, vers le Texas plus conservateur.

L’AFP travaille actuellement dans 26 langues avec le programme de vérification des faits de Facebook, notamment aux États-Unis et dans l’Union européenne.

Meta a également annoncé des changements dans ses politiques de modération, une démarche qui fait craindre un recul pour la lutte contre les discours de haine ou de harcèlement des minorités.

(FILES) Un logo de l’entreprise américaine Meta est affiché lors du salon des startups et de l’innovation technologique Vivatech, au parc des expositions de la Porte de Versailles à Paris, le 22 mai 2024.
(Photo de JULIEN DE ROSA / AFP)

La dernière version des règles de la communauté de Meta indique que ses plateformes autorisent les allégations de « maladie mentale ou d’anormalité » lorsqu’elles sont fondées sur le genre ou l’orientation sexuelle.

L’abandon de politiques de lutte contre les discours haineux conformes aux normes de l’industrie de la tech fait des plateformes de Meta des « lieux dangereux », a réagi Sarah Kate Ellis, présidente de l’association de défense des droits GLAAD.

Sans ces politiques, « Meta donne le feu vert à des personnes pour cibler les personnes LGBTQ, les femmes, les immigrés et d’autres groupes marginalisés avec violence, virulence et des récits déshumanisants « , a-t-elle ajouté.

En savoir plus sur :
S'inscrire ou se connecter
Veuillez utiliser le format suivant : example@domain.com
Se connecter avec
En vous inscrivant, vous acceptez les conditions d'utilisation
S'inscrire pour continuer
Se connecter avec
Se connecter pour continuer
S'inscrire ou se connecter
Se connecter avec
check your email
Consultez vos mails
Nous vous avons envoyé un email à gal@rgbmedia.org.
Il contient un lien qui vous permettra de vous connecter.
image
Inscrivez-vous gratuitement
et continuez votre lecture
L'inscription vous permet également de commenter les articles et nous aide à améliorer votre expérience. Cela ne prend que quelques secondes.
Déjà inscrit ? Entrez votre email pour vous connecter.
Veuillez utiliser le format suivant : example@domain.com
SE CONNECTER AVEC
En vous inscrivant, vous acceptez les conditions d'utilisation. Une fois inscrit, vous recevrez gratuitement notre Une du Jour.
Register to continue
SE CONNECTER AVEC
Log in to continue
Connectez-vous ou inscrivez-vous
SE CONNECTER AVEC
check your email
Consultez vos mails
Nous vous avons envoyé un e-mail à .
Il contient un lien qui vous permettra de vous connecter.