Israël en guerre - Jour 367

Rechercher

Le Conseil de surveillance de Meta va statuer sur le post négationniste de « Bob l’éponge »

Le Conseil rendra une décision non contraignante suite à celle de Meta, pour qui la publication n'a pas enfreint les règles en matière de discours de haine

Des visiteurs devant et à côté d'écrans affichant le logo Meta lors d'un événement au siège social de Meta à Berlin le 6 juin 2023. (Crédit : Tobias Schwarz/AFP)
Des visiteurs devant et à côté d'écrans affichant le logo Meta lors d'un événement au siège social de Meta à Berlin le 6 juin 2023. (Crédit : Tobias Schwarz/AFP)

JTA – Le Conseil de surveillance de Meta examine un message utilisant un personnage de « Bob l’éponge », dans le cadre de ce qui pourrait créer un précédent en matière de modération de la négation de la Shoah sur Facebook et Instagram.

Chargé de rendre des avis non contraignants sur les décisions de modération prises par la société, le Conseil a annoncé jeudi examiner la réponse de Meta à des plaintes concernant un mème publié en septembre 2020.

Dans ce mème, le personnage Squidward apparaît à côté d’une bulle avec des arguments néo-nazis contestant la Shoah, sous le titre « Faits amusants sur la Shoah ».

L’utilisateur anonyme auteur de ce message, qui compte quelque 9 000 abonnés, s’est inspiré du mème « Fun Facts With Squidward » pour publier un message disant que la Shoah n’a pas pu avoir lieu parce que l’infrastructure pour mener à bien le génocide n’a été construite qu’après la Seconde Guerre mondiale, entre autres mensonges et distorsions.

Des utilisateurs se sont plaints de cette publication, avant et après la promulgation par l’entreprise, en octobre 2020, de l’interdiction de négation de la Shoah. Mais Meta avait rejeté toutes les plaintes, affirmant que le message n’enfreignait pas les règles de la communauté en matière de discours de haine.

En réaction à l’annonce du Conseil de surveillance, Meta a déclaré avoir commis une erreur et finalement supprimé le message, vu par environ un millier de personnes. Elles étaient moins de 1 000 à l’avoir « liké », assure la société.

Le Conseil de surveillance enquêtera sur les raisons pour lesquelles le poste est resté en ligne si longtemps. Sa décision de se saisir de l’affaire signifie que le Conseil accorde de l’importance aux critiques selon lesquelles les règles et pratiques en vigueur ne permettent pas de lutter efficacement contre les formes variées sous lesquelles apparaissent l’antisémitisme et la négation de la Shoah sur les plateformes de Meta.

Le PDG de Facebook, Mark Zuckerberg, se rend à un déjeuner après une session à la conférence Allen & Company Sun Valley le 8 juillet 2021 à Sun Valley, dans l’Idaho. (Crédit : Kevin Dietsch / Getty Images via AFP)

Pour commencer, le Conseil d’administration a sollicité les commentaires du public sur un certain nombre de questions liées à la responsabilité de l’entreprise à l’égard du contenu apparaissant sur ses plateformes. Ces questions vont donner lieu à des études sur les dommages résultant de la négation de la Shoah en ligne, la responsabilité de Meta en matière de dignité, sécurité et liberté d’expression et enfin l’utilisation de l’automatisation pour examiner le contenu des discours de haine.

Les réseaux sociaux sont critiqués et font l’objet de boycott, au motif qu’ils ont permis la propagation de l’antisémitisme, du racisme et de l’extrémisme des années durant. De nombreuses organisations représentatives juives plaident en faveur de contrôles plus stricts sur la parole en ligne.

En 2018, le PDG de Meta, Mark Zuckerberg, a largement donné le sentiment de défendre le droit des utilisateurs à publier des contenus négationnistes de la Shoah pour des raisons liées à la liberté d’expression, mais la société a changé de cap en 2020 et fait valoir une interdiction, ce qui n’a pas tardé à poser un nouveau problème. Les algorithmes de la plate-forme signalaient en effet parfois des propos éducatifs sur la Shoah, qu’ils supprimaient pour infraction aux règles de la communauté.

De tels signalements automatisés ont joué un rôle dans le maintien en ligne de la publication Squidward. Les utilisateurs s’en sont plaints six fois – quatre avant l’entrée en vigueur de l’interdiction de la négation de la Shoah et deux fois depuis.

Selon le Conseil de surveillance, le processus d’examen automatisé de Meta a conduit au rejet de certaines plaintes au motif que la publication était conforme à ses règles et d’autres en raison d’une règle liée à la pandémie, limitée aux cas « à haut risque ». Humains et algorithmes ont joué un rôle dans ces prises de décision, a conclu le Conseil.

En savoir plus sur :
S'inscrire ou se connecter
Veuillez utiliser le format suivant : example@domain.com
Se connecter avec
En vous inscrivant, vous acceptez les conditions d'utilisation
S'inscrire pour continuer
Se connecter avec
Se connecter pour continuer
S'inscrire ou se connecter
Se connecter avec
check your email
Consultez vos mails
Nous vous avons envoyé un email à gal@rgbmedia.org.
Il contient un lien qui vous permettra de vous connecter.
image
Inscrivez-vous gratuitement
et continuez votre lecture
L'inscription vous permet également de commenter les articles et nous aide à améliorer votre expérience. Cela ne prend que quelques secondes.
Déjà inscrit ? Entrez votre email pour vous connecter.
Veuillez utiliser le format suivant : example@domain.com
SE CONNECTER AVEC
En vous inscrivant, vous acceptez les conditions d'utilisation. Une fois inscrit, vous recevrez gratuitement notre Une du Jour.
Register to continue
SE CONNECTER AVEC
Log in to continue
Connectez-vous ou inscrivez-vous
SE CONNECTER AVEC
check your email
Consultez vos mails
Nous vous avons envoyé un e-mail à .
Il contient un lien qui vous permettra de vous connecter.