Meta : comment ne pas signaler les messages anti-haine comme des discours de haine ?
Les politiques de modération du géant des réseaux sociaux ne font pas bien la distinction entre le déni de la Shoah, par exemple, et la critique du déni
JTA – En janvier, un utilisateur turc d’Instagram a publié une partie d’une interview de Ye, l’artiste américain précédemment connu sous le nom de Kanye West, tenant des propos à la gloire d’Hitler et niant la Shoah, avant de retirer le message de la plate-forme de réseaux sociaux.
Cela n’a pourtant rien à voir avec la politique de Meta pour empêcher la propagation des discours de haine sur Instagram, a statué le conseil de surveillance de la société. C’est en fait parce que l’interview de Ye était accompagnée d’une vidéo d’un journaliste condamnant ses propos et partageant avec ses proches un lien sur les victimes de la Shoah.
Le système de détection des discours de haine de Meta n’a pas compris que l’utilisateur n’approuvait pas Ye, mais au contraire le critiquait. La société a donc supprimé le message, accusant son utilisateur d’avoir enfreint les règles réprimant les discours de haine.
Le Conseil de surveillance, organisme indépendant chargé d’examiner les décisions de modération de contenu prises par Meta, affirme que le propriétaire de Facebook et Instagram devrait faire le nécessaire pour que soient mieux distinguées les publications qui propagent la haine de celles qui la combattent. Trop souvent, explique le Conseil dans un résumé de sa décision, les modérateurs humains et automatisés signalent des messages dont la vocation est de sensibiliser à la haine et à l’antisémitisme.
« De telles erreurs peuvent aboutir à la suppression de discours destinés à s’élever contre les discours de haine ou de déni de la Shoah, voire l’éloge d’individus dangereux, comme Hitler », lit-on dans le résumé. « La protection du contre-discours est essentielle pour faire progresser la liberté d’expression : elle constitue un outil de lutte contre les contenus préjudiciables tels que la désinformation et les discours de haine. »
Le Conseil de surveillance de Meta a déclaré que Meta n’avait pas tenu compte du contexte dans lequel l’utilisateur avait exposé les propos de Ye et avait supprimé par erreur le message en vertu de règles interdisant la négation de la Shoah et l’éloge de personnalités comme Hitler. L’utilisateur a fait appel de la suppression en vain, mais lorsque le Conseil de surveillance a porté l’affaire à l’attention de Meta, la société a reconnu son erreur et rétabli le message.
Le Conseil de surveillance a décidé d’examiner l’affaire en dépit des mesures correctives prises depuis en raison de l’importance de la question sous-jacente, a-t-il fait savoir dans un résumé de son argumentaire.
Le Conseil a réitéré de précédentes recommandations, comme le fait que Meta vérifie la fréquence à laquelle ses modérateurs de contenu et algorithmes suppriment à tort des messages destinés à éduquer ou contrer les discours de haine. Cela fait des années que la question de la censure accidentelle de contenus éducatifs pose problème à l’entreprise : elle a connu un pic lorsque Meta a interdit la négation de la Shoah, en 2020.
Ce n’est pas la première fois que le Conseil de surveillance, mis en place en 2020 sur fond d’allégations selon lesquelles les plateformes de Meta contribuent à la propagation de la désinformation et de l’extrémisme, se saisit d’une affaire d’antisémitisme. Sur la cinquantaine de cas traités, pas moins de quatre d’entre eux concernent la négation de la Shoah ou des contenus liés aux nazis.
Le mois dernier, le Conseil a annoncé son intention d’examiner la gestion par Meta d’un message déformant la Shoah. Par le passé, le Conseil a déjà annulé la suppression par Meta d’un message contenant une citation attribuée à tort au propagandiste nazi Joseph Goebbels et un message comparant l’armée russe aux nazis.