Meta échoue à identifier les allusions et les mèmes liés à la Shoah – panel de supervision
La commission indépendante établit que les usagers échappent aux systèmes de détection en remplaçant les voyelles par des symboles ou en utilisant des dessins pour promouvoir des narratifs antisémites
Un post sur Instagram utilisant un meme Bob l’éponge pour faire la promotion du négationnisme de la Shoah est parvenu à échapper au système de suppression de contenu de Meta, qui refuse la publication de telles publications – ce qui soulève des questions sur les capacités de la compagnie à lutter contre certaines formes indirectes de discours de haine, a fait savoir une Commission indépendante dans ses conclusions qui ont été publiées mardi.
Ces conclusions ont été tirées à l’issue du réexamen de la prise en charge, par Meta, d’un post présentant un meme de Carlo Tentacule, un personnage du dessin animé Bob l’éponge et qui était intitulé « Des faits amusants sur la Shoah ». Une bulle, à côté du personnage, contenait des mensonges et des distorsions de la Shoah, affirmant notamment de manière erronée que six millions de Juifs n’ont pas pu être assassinés pendant le génocide et que les cheminées du crématorium d’Auschwitz n’ont été construites qu’après la Seconde guerre mondiale.
Malgré six signalements d’utilisateurs ayant entraîné quatre réexamens automatisés et deux réexamens de la part d’un modérateur bien humain, le post était resté en ligne du mois de septembre 2020 jusqu’à l’année dernière, quand le Bureau de supervision de Meta avait expliqué qu’il étudierait ce cas précis et que la firme avait annoncé, un peu plus tard, que la publication violait ses politiques en matière de discours de haine, et qu’elle serait par conséquent supprimée. Le post avait même survécu à deux plaintes déposées par les usagers après l’adoption, par le géant des réseaux sociaux, d’une nouvelle directive élargissant sa politique sur les discours de haine et interdisant explicitement le négationnisme de la Shoah, une décision qui avait été prise au mois d’octobre 2020.
Dans le cadre de son réexamen de la publication Bob l’éponge, le Bureau de supervision a demandé à une équipe de chercheurs de s’intéresser au négationnisme de la Shoah sur les plateformes de Meta. Il n’a pas été difficile de trouver des exemples – avec notamment des publications qui utilisaient le même meme de Carlo Tentacule pour promouvoir d’autres types de narratifs antisémites. Les utilisateurs s’efforcent d’échapper au système de détection de Meta et de suppression des contenus interdits, ont noté les chercheurs. Les voyelles sont ainsi remplacées par des symboles, par exemple, et les dessins et autres memes sont un moyen pratique de nier implicitement l’Histoire de la Shoah, sans pour autant affirmer directement que le génocide juif n’a pas eu lieu.
La modération des contenus sur les réseaux sociaux est une tâche difficile – une difficulté qui est de notoriété publique. Certaines plateformes, comme X (anciennement Twitter), ont opté pour une approche non-interventionniste, préférant réduire les contrôles que de prendre le risque de se tromper en supprimant des discours légitimes, ce qui a résulté, en ce qui concerne X, en une prolifération des contenus antisémites et extrémistes.
Meta a choisi, pour sa part, de renforcer sa modération, acceptant même de donner au Bureau de supervision l’autorité nécessaire pour prendre des décisions contraignantes dans le cas des conflits portant sur de possibles violations des politiques sur les contenus de l’entreprise. Cette vigilance, dans certains cas, a entraîné la suppression accidentelle de contenus qui critiquaient les discours de haine ou sensibilisaient le public à la Shoah. Le Bureau de supervision a vivement recommandé à Meta – et ce de manière répétée – de redéfinir ses algorithmes et ses procédures afin de réduire les erreurs et d’améliorer la transparence s’agissant de la mise en œuvre de l’interdiction du négationnisme de la Shoah sur ses réseaux.
Meta avait établi son Bureau de supervision dans un contexte de controverse croissante sur la manière dont le géant prenait en charge la modération de ses contenus. L’initiative avait attiré l’attention sur Meta – mais elle n’a pas mis un terme aux critiques pour autant. Quand, par exemple, le panel a annoncé l’existence du meme de Bob l’éponge et qu’il a demandé au public de lui faire parvenir ses commentaires, il a reçu un torrent de réponses de la part des groupes juifs et d’autres qui ont fait connaître leur mécontentement.
« Le négationnisme et les distorsions de la Shoah tels qu’ils se présentent sur les plateformes de Meta, tels qu’ils se présentent à n’importe quelle tribune, en ligne ou hors-ligne, sont des discours de haine, sans ambiguïté aucune », a écrit l’ADL (Anti-Defamation League) dans son commentaire. « Le Conseil de supervision doit obliger Meta à agir de manière appropriée en faisant supprimer rapidement les publicationqui contreviennent à cette politique, comme celui dont nous parlons dans ce cas précis. Devoir attendre qu’il y ait des appels pour se tourner vers le Bureau de supervision est inacceptable ».
Par ailleurs, un autre commentateur a estimé que l’ADL avait une influence négative sur les pratiques de modération de contenu mises en œuvre par le géant, disant que le groupe de veille était une « organisation non-représentative, démocrate de gauche ».
« Meta a perdu toute son intégrité dans ce secteur au vu de son grave niveau de censure, une censure dont le niveau est orwellien et hyper-partisan », a écrit le même homme qui s’est présenté sous le nom de Brett Prince.
Dans le cas de Bob l’éponge, le Bureau de supervision a établi deux nouvelles séries de recommandations pour Meta. Il a indiqué qu’il était difficile d’estimer quelle était la réelle efficacité de Meta dans la mise en œuvre de son interdiction du négationnisme de la Shoah dans la mesure où les modérateurs humains n’enregistraient pas la raison spécifique de la suppression d’un post, une pratique que le panel a encouragé Meta à changer.
La commission a aussi découvert qu’au mois de mai 2023, Meta triait encore ses réexamens de contenu sur la base d’une politique automatisée qui avait été adoptée suite à la pandémie de la COVID-19, en 2020, de façon à ce que les appels lancés par les usagers suite à des décisions soient rejetés, à moins qu’ils ne soient considérés comme « à haut-risque ». Ce n’est pas une bonne chose que cette politique soit restée en place aussi longtemps, a dit le panel.
La propagation des discours de haine et de la désinformation, sur les réseaux sociaux, est devenue un problème de premier plan dans le sillage de l’attaque commise par les terroristes du Hamas sur le sol israélien, le 7 octobre – alors que les plateformes sont dorénavant envahies d’images ultra-violentes de la guerre et de propagande émise dans ce contexte. En réponse à cette situation, le Bureau de supervision a adopté un processus accéléré pour le réexamen des cas litigieux.
Le 7 octobre, des milliers de terroristes du Hamas avaient attaqué Israël, franchissant la frontière avec Gaza et semé la désolation dans le sud du pays, tuant 1200 personnes. Les terroristes armés avaient aussi kidnappé 253 personnes, prises en otage au sein de l’enclave côtière.
Israël a répondu avec une campagne militaire qui est encore en cours et qui vise à détruire le Hamas, à l’écarter du pouvoir à Gaza et à obtenir la libération des otages.