Enseignement de la Shoah/Négationnisme : Quand les algorithmes les confondent
Rechercher

Enseignement de la Shoah/Négationnisme : Quand les algorithmes les confondent

De nouvelles politiques visent à bloquer le déni de la Shoah mais les journalistes et les organisations estiment que l'intelligence artificielle sème la pagaille

Sur cette photo d'archives du 23 octobre 2019, le PDG de Facebook, Mark Zuckerberg, témoigne devant une audience de la commission des services financiers de la Chambre des représentants, au Capitole, à Washington. (Crédit : AP Photo/Andrew Harnik)
Sur cette photo d'archives du 23 octobre 2019, le PDG de Facebook, Mark Zuckerberg, témoigne devant une audience de la commission des services financiers de la Chambre des représentants, au Capitole, à Washington. (Crédit : AP Photo/Andrew Harnik)

JTA – En octobre, un jour après que Facebook a annoncé qu’il allait interdire le négationnisme sur sa plate-forme, Izabella Tabarovsky a reçu un message inattendu du réseau social.

Une de ses publications de 2019, faisant la promotion d’un article qu’elle avait écrit sur la mémoire de la Shoah, se voyait supprimée pour avoir violé les « standards de la communauté sur les discours de haine » de Facebook. Aucune autre information ne lui a été fournie, et Tabarovsky ne se souvient pas qu’on lui ait donné un moyen de faire appel de la décision.

Elle a contacté un porte-parole de Facebook qu’elle a trouvé sur Twitter, mais sans obtenir de réponse.

La décision de Facebook d’interdire le négationnisme n’est intervenue qu’après que des universitaires, des militants et des célébrités ont mis au pilori la plateforme pour avoir autorisé les discours de haine. Mais Tabarovsky n’est pas une négationniste de la Shoah. C’est une journaliste juive qui écrit sur les Juifs soviétiques, notamment sur la Shoah dans les territoires soviétiques.

L’article en question s’intitule « La plupart des juifs n’ont pas été assassinés dans les camps de la mort. Il est temps de parler de l’autre Holocauste ». Il expliquait comment les efforts de commémoration de la Shoah ne se concentrent pas assez sur les millions de Juifs qui ont été tués en dehors des camps de concentration, comme les propres parents de Tabarovsky, qui ont été assassinés à Babyn Yar.

Il est possible que le titre ait déclenché la réaction d’un algorithme destiné à détecter le négationnisme, qui a alors bloqué le message de Tabarovsky. Elle ne le sait pas, car elle n’a jamais eu de nouvelles de Facebook.

« Nous avons vu tellement de discours antisémites. Ils ne peuvent pas le combattre, ils ne peuvent pas le retirer, et pourtant ils suppriment les publications éducatives sur l’Holocauste de 2019. C’est vraiment incroyable. « 

« Ce message est apparu, et évidemment je me suis immédiatement demandée si j’avais écrit quelque chose qui relevait du racisme, » a déclaré Tabarovsky à la Jewish Telegraphic Agency. « Nous avons vu tellement de discours antisémites. Ils ne peuvent pas le combattre, ils ne peuvent pas le retirer, et pourtant ils suppriment les publications éducatives sur l’Holocauste de 2019. C’est vraiment incroyable. »

Tabarovsky fait partie de la longue liste d’utilisateurs de réseaux sociaux dont les publications anti-haine ont été victimes, à tort, des algorithmes qui visent à supprimer les discours racistes. Des entreprises comme Facebook, Twitter et TikTok affirment avoir intensifié leur lutte contre les messages abusifs et la désinformation. Mais l’intelligence artificielle (IA) qui pilote ces systèmes, destinés à éradiquer le racisme ou les appels au génocide, peut au contraire piéger les efforts déployés pour les combattre.

Les organisations qui se concentrent sur l’enseignement de la Shoah affirment que le problème est particulièrement aigu pour elles, car il survient à une époque où un grand nombre de jeunes, ultra-connectés, ignorent les faits de base concernant la Shoah.

Michelle Stein, responsable de la communication du musée américain de la Shoah, a déclaré à la JTA que les publicités Facebook du musée ont souvent été rejetées d’emblée, assez fréquemment « pour que ce soit un vrai problème pour nous ».

« Bien trop souvent, notre contenu éducatif se heurte littéralement à un mur de briques », a-t-elle déclaré. « Il n’est pas acceptable qu’une publicité qui présente une image historique d’enfants des années 1930 portant l’étoile jaune soit rejetée, surtout à une époque où nous devons sensibiliser le public sur ce que cet insigne jaune représentait pendant la Shoah. »

Un homme manifeste contre les restrictions entraînées par le coronavirus avec une étoile jaune et une photo d’Anne Frank aux abords du mémorial de la Shoah, à Berlin. (Crédit : @ZSKberlin/Twitter via JTA)

La publication de l’étoile jaune n’est qu’un exemple de publicité qui a été bloquée, a déclaré Stein. Les Juifs, qui seront anéantis par la suite, ont été contraints par les nazis d’apposer les étoiles sur leurs vêtements. Récemment, les manifestants se sont appropriés l’étoile jaune, qu’il s’agisse de vaccins ou du Brexit, ce qui pourrait avoir rendu Facebook particulièrement sensible à l’image de l’étoile. L’annonce du musée de la Shoah visait à répondre à des incidents de ce type en informant les gens sur la signification réelle de l’étoile.

Il y a eu d’autres cas où l’enseignement de la Shoah a été bloqué. En mars, Facebook a désactivé le compte du Norwegian Center for Holocaust and Minority Studies pendant cinq jours, ainsi que les comptes de 12 de ses employés. Lorsque les comptes ont été rétablis, un porte-parole local de Facebook a déclaré à un journal norvégien : « je ne peux pas dire s’il s’agit d’une erreur technique ou d’une erreur humaine. »

En 2018, l’Anne Frank Center for Mutual Respect, une organisation dédiée à l’éducation sur le Shoah à New York, a vu une des publications; qui comprenait une photo d’enfants juifs décharnés, retirées de Facebook. Redfish, un média affilié à l’État russe, a déclaré avoir fait retirer de Facebook cette année trois publications sur la mémoire de la Shoah, dont un avec une célèbre photo d’Elie Weisel et d’autres personnes dans une baraque de camp de concentration.

Les spécialistes de la Shoah ne sont pas les seuls à protester contre la façon dont les algorithmes des réseaux sociaux régulent les contenus supposés haineux. Des militants antiracistes ont déploré le fait que leurs publications sur Facebook soient traitées comme des discours de haine, ce qui a incité la plateforme à modifier son algorithme. Sur TikTok, des créateurs juifs affirment avoir été bannis après avoir publié des contenus juifs non répréhensibles. Lors du récent conflit en Israël et à Gaza, des militants pro-israéliens et pro-palestiniens ont déclaré que leurs publications avaient été cachés ou retirés d’Instagram et d’ailleurs.

Facebook (qui possède Instagram) et TikTok ont tous deux déclaré à la JTA que les utilisateurs dont les publications ont été retirées peuvent faire appel de la décision. Twitter n’a pas répondu aux questions envoyées par courriel.

M. Stein a déploré l’opacité du raisonnement derrière le blocage de publications et le fait que la procédure d’appel puisse parfois prendre plusieurs jours. Le temps que les publications soient approuvées, dit-elle, le timing souhaité pour véhiculer un enseignement spécifique est souvent passé. Le musée a contacté Facebook pour régler le problème, en vain.

« On ignore quel élément de la publication pose problème, nous sommes donc obligés de deviner »

« On ignore quel élément de la publication pose problème, nous sommes donc obligés de deviner. Mais, plus important encore, cela nous empêche de diffuser ce message en temps utile », a-t-elle déclaré. « Le grand potentiel des réseaux sociaux n’est pas l’éducation ancrée dans une salle de classe, ce sont des moments éducatifs ancrés dans ce qui se passe dans l’environnement, alors quand on doit s’arrêter, c’est une vraie perte. »

Un porte-parole de Facebook a déclaré à la JTA qu’il utilise « des moyens humains et automatiques » pour détecter les discours de haine, et que des personnes examinent « généralement » les décisions automatisées. Facebook inclut dans le déni de la Shoah les publications qui contestent « le fait que cela s’est produit, le nombre de victimes, les méthodes et l’intentionnalité de la chose ».

« Nous ne nous appuyons pas exclusivement sur des mots ou un langage spécifiques pour distinguer le négationnisme du contenu éducatif », a déclaré le porte-parole à la JTA. « Nous avons également des équipes d’intervention qui peuvent passer plus de temps sur ce contenu et obtenir un contexte supplémentaire afin de nous permettre de prendre une décision plus éclairée. »

TikTok a déclaré à la JTA que des modérateurs humains examinent le contenu signalé par son système d’intelligence artificielle, et qu’il apprend à ses modérateurs à faire la distinction entre les discours de haine et ce qu’il définit comme un « contre-discours. » Ni Facebook ni Twitter n’ont fourni de détails supplémentaires sur le moment et la manière dont les messages passent de l’intelligence artificielle aux modérateurs humains, ou sur la façon dont ces derniers sont formés.

« Nous ne savons pas quand ils utilisent des outils automatisés, qui décide de ce qu’est l’antisémitisme, qui décide de ce qu’est le racisme anti-Noir », a déclaré Daniel Kelley, directeur associé au Centre pour la technologie et la société de l’Anti-Defamation League (ADL).

« Nous ne savons pas quand ils utilisent des outils automatisés, qui décide de ce qu’est l’antisémitisme, qui décide de ce qu’est le racisme anti-Noir »

L’ADL a été l’un des organisateurs d’un boycott publicitaire très médiatisé de Facebook l’année dernière pour protester contre ce qu’ils considéraient être une politique laxiste en matière de discours haineux. Plus tard dans l’année, Facebook a annoncé qu’il allait interdire le négationnisme et réprimer d’autres formes de haine.

« Ces ensembles de données formés sont-ils fondés sur l’expérience des personnes des communautés touchées ? », s’interroge Kelley. « Est-ce que cela informe la façon dont les systèmes automatisés sont créés ? ».

Facebook et TikTok ont tous deux déclaré qu’ils s’engageaient à garder l’antisémitisme hors de leurs plateformes, et TikTok a déclaré qu’il travaillait avec l’ADL ainsi qu’avec le Congrès juif mondial pour élaborer sa modération des discours de haine antisémite. Le Congrès juif mondial travaille également avec Facebook.

« Il est beaucoup plus difficile de gérer des choses comme le ton ou le contexte, et c’est là que l’apprentissage de l’IA est essentiel, et c’est l’espace d’apprentissage, mais il ne sera jamais parfait », a déclaré Yfat Barak-Cheney, directrice des affaires internationales du Congrès juif mondial. « Des sujets comme la nudité, où il est facile pour les machines de la détecter, sont supprimés automatiquement à 98 ou 99 % avant d’atteindre la plateforme. Dans le discours de haine, le ton et le contenu ont un rôle plus important, alors les machines ne sont pas en mesure d’en supprimer autant. »

Le message du chef de la NAACP à Philadelphie qui a déclenché des appels à sa démission. (Facebook via JTA)

Barak-Cheney a déclaré que son organisation hésite à faire pression sur les plateformes pour qu’elles aillent encore plus loin dans la modération de sujets comme le négationnisme, car il est plus important pour eux que Facebook et d’autres sites prennent une position ferme contre les discours de haine. Avant que le Congrès juif mondial ne se lance dans sa campagne annuelle de commémoration de la Shoah sur les réseaux sociaux, baptisée #WeRemember, il enverra des messages aux plateformes de réseaux sociaux pour une approbation anticipée afin de s’assurer qu’ils ne seront pas bloqués lorsqu’ils seront publiés.

« Il y a des améliorations à apporter, mais si nous insistons pour dire ‘Hé, vous devriez autoriser plus de contenu’, cela va à l’encontre de notre volonté qui consiste à leur demander de s’assurer qu’il n’y ait pas de contenu illicite qui subsiste et qui soit nuisible », a-t-elle déclaré.

Pawel Sawicki, porte-parole du musée d’État d’Auschwitz-Birkenau, a déclaré que si des messages éducatifs se voient bannis, c’est au moins un signe que les plateformes prennent la question au sérieux. M. Sawicki a déclaré que les publications du musée n’avaient pas été bloquées et qu’il restait préoccupé par la possibilité que le négationnisme se propage sur les réseaux sociaux, malgré les politiques des plateformes.

« Cela montre qu’un processus de suppression de la parole est en cours sur les réseaux sociaux si un tel contenu disparaît », a-t-il déclaré. « Les choses changent, et nous espérons que c’est un véritable changement dans leur approche des discours haineux de manière plus universelle. »

Mme Tabarovsky est également favorable à ce que les entreprises de réseaux sociaux prennent des mesures énergiques contre le négationnisme et les discours de haine. Mais elle aurait aimé comprendre pourquoi son message a été bloqué et, idéalement, trouver un moyen d’éviter que ses messages soient supprimés. La semaine dernière, après que la JTA s’est renseignée sur la publication et plus de six mois après sa suppression, Facebook l’a rétablie sur la plateforme.

« C’est juste fou, quand vous avez affaire à un robot qui ne peut pas faire la différence entre le négationnisme et l’enseignement de la Shoah », a déclaré Tabarovsky. « Comment en sommes-nous arrivés à ce point en tant qu’humanité où nous avons délégué des décisions aussi importantes à des robots ? C’est tout simplement dingue. »

En savoir plus sur :
C’est vous qui le dites...