Le Conseil de surveillance de Meta va statuer sur le post négationniste de « Bob l’éponge »
Le Conseil rendra une décision non contraignante suite à celle de Meta, pour qui la publication n'a pas enfreint les règles en matière de discours de haine
JTA – Le Conseil de surveillance de Meta examine un message utilisant un personnage de « Bob l’éponge », dans le cadre de ce qui pourrait créer un précédent en matière de modération de la négation de la Shoah sur Facebook et Instagram.
Chargé de rendre des avis non contraignants sur les décisions de modération prises par la société, le Conseil a annoncé jeudi examiner la réponse de Meta à des plaintes concernant un mème publié en septembre 2020.
Dans ce mème, le personnage Squidward apparaît à côté d’une bulle avec des arguments néo-nazis contestant la Shoah, sous le titre « Faits amusants sur la Shoah ».
L’utilisateur anonyme auteur de ce message, qui compte quelque 9 000 abonnés, s’est inspiré du mème « Fun Facts With Squidward » pour publier un message disant que la Shoah n’a pas pu avoir lieu parce que l’infrastructure pour mener à bien le génocide n’a été construite qu’après la Seconde Guerre mondiale, entre autres mensonges et distorsions.
Des utilisateurs se sont plaints de cette publication, avant et après la promulgation par l’entreprise, en octobre 2020, de l’interdiction de négation de la Shoah. Mais Meta avait rejeté toutes les plaintes, affirmant que le message n’enfreignait pas les règles de la communauté en matière de discours de haine.
En réaction à l’annonce du Conseil de surveillance, Meta a déclaré avoir commis une erreur et finalement supprimé le message, vu par environ un millier de personnes. Elles étaient moins de 1 000 à l’avoir « liké », assure la société.
Le Conseil de surveillance enquêtera sur les raisons pour lesquelles le poste est resté en ligne si longtemps. Sa décision de se saisir de l’affaire signifie que le Conseil accorde de l’importance aux critiques selon lesquelles les règles et pratiques en vigueur ne permettent pas de lutter efficacement contre les formes variées sous lesquelles apparaissent l’antisémitisme et la négation de la Shoah sur les plateformes de Meta.
Pour commencer, le Conseil d’administration a sollicité les commentaires du public sur un certain nombre de questions liées à la responsabilité de l’entreprise à l’égard du contenu apparaissant sur ses plateformes. Ces questions vont donner lieu à des études sur les dommages résultant de la négation de la Shoah en ligne, la responsabilité de Meta en matière de dignité, sécurité et liberté d’expression et enfin l’utilisation de l’automatisation pour examiner le contenu des discours de haine.
Les réseaux sociaux sont critiqués et font l’objet de boycott, au motif qu’ils ont permis la propagation de l’antisémitisme, du racisme et de l’extrémisme des années durant. De nombreuses organisations représentatives juives plaident en faveur de contrôles plus stricts sur la parole en ligne.
En 2018, le PDG de Meta, Mark Zuckerberg, a largement donné le sentiment de défendre le droit des utilisateurs à publier des contenus négationnistes de la Shoah pour des raisons liées à la liberté d’expression, mais la société a changé de cap en 2020 et fait valoir une interdiction, ce qui n’a pas tardé à poser un nouveau problème. Les algorithmes de la plate-forme signalaient en effet parfois des propos éducatifs sur la Shoah, qu’ils supprimaient pour infraction aux règles de la communauté.
De tels signalements automatisés ont joué un rôle dans le maintien en ligne de la publication Squidward. Les utilisateurs s’en sont plaints six fois – quatre avant l’entrée en vigueur de l’interdiction de la négation de la Shoah et deux fois depuis.
Selon le Conseil de surveillance, le processus d’examen automatisé de Meta a conduit au rejet de certaines plaintes au motif que la publication était conforme à ses règles et d’autres en raison d’une règle liée à la pandémie, limitée aux cas « à haut risque ». Humains et algorithmes ont joué un rôle dans ces prises de décision, a conclu le Conseil.