La « loi Facebook » en Israël pourrait avoir de vastes répercussions sur ces citoyens en ce qui concerne la nature démocratique du pays et sa liberté d’expression, a sous-entendu un employé de Facebook dans une réunion de presse avec des journalistes israéliens mercredi.

« Si elle est promulguée, cette loi s’appliquera à tout ce qui se passe en ligne, qu’il s’agisse d’une journal ou d’un compte Twitter, quoi que ce soit », explique Simon Milner, directeur de la politique Facebook au Moyen-Orient, au Royaume-Uni et en Afrique. « C’est une décision importante. Si la Knesset approuve cette loi, nous espérons qu’il y aura un équilibre sur l’usage du pouvoir. »

Israël a accusé Facebook de faciliter l’incitation des Palestiniens contre les Israéliens, et précisément depuis la vague d’attaques qui sévit depuis octobre 2015. Les services de sécurité affirment que cette violence est alimentée par une incitation sur la toile. Au début du mois, la « loi Facebook » a été adoptée en première lecture à la Knesset. Cette loi permettrait à l’État de demander une ordonnance de la Cour pour contraindre le géant des réseaux sociaux à retirer du contenu selon les recommandations de la police.

Cette loi a été parrainée par le ministre de la Sécurité intérieure Gilad Erdan et la ministre de la Justice Ayelet Shaked en juillet. Peu avant, Erdan avait fustigé Mark Zuckerberg, fondateur de Facebook, car il autorisait la diffusion de propos incitatoires et de discours haineux sur son réseau.

Erdan a affirmé que Facebook sabote le travail de la police et a déclaré que Zuckerberg avait un peu de sang de la jeune Hallel Yaffa Ariel sur les mains. Ariel était une jeune adolescente israélienne. Elle a été tuée dans son lit par un terroriste palestinien qui a évoqué son désir de mourir pour la cause palestinienne dans de nombreuses publications postées sur Facebook.

Le gouvernement a déclaré que la loi pourra être invoquée dans des cas de suspicion d’incitation, lorsqu’il y a une réelle possibilité que le contenu en question représente un danger pour la population ou la sécurité intérieure.

 Simon Milner, directeur de la politique Facebook au Moyen-Orient, au Royaume-Uni et en Afrique. (Crédit : autorisation)

Simon Milner, directeur de la politique Facebook au Moyen-Orient, au Royaume-Uni et en Afrique. (Crédit : autorisation)

Facebook a déjà fait part de sa réaction à cette loi, a déclaré Milner. Ce qui l’inquiète, c’est que la loi permettra aux tribunaux de statuer sur des questions qui lui seront soumises par le gouvernement, dans des audiences ex parte, et ne prévoit pas d’entendre l’autre parti. « Nous avons suggéré que ce point soit réétudié », a-t-il dit.

Il a souligné que Facebook a une tolérance zéro pour tout ce qui a trait au terrorisme et à l’incitation à la violence, et sa politique sur la question est très claire. Le géant américain travaille déjà étroitement avec l’unité de cyber-criminalité israélienne pour identifier les publications problématiques et « les gérer rapidement », dit-il. « Une grande majorité des éléments signalés ont été supprimés. » Mais il ajoute qu’il « n’existe aucun bouton pour mettre fin aux discours haineux ni au terrorisme ».

La société sera « surprise » si cette loi se révèle « nécessaire pour que Facebook supprime du contenu », dit-il.

Facebook a fait l’objet de critiques virulentes de la part de journalistes israéliens. Il accuse le réseau d’empiéter sur leur liberté d’expression en bloquant certaines de leurs publications. Au début du mois, le Hamas a critiqué le géant des réseaux sociaux pour avoir supprimé une centaine de pages appartenant au groupe terroriste qui contrôle la bande de Gaza, ou de pages manifestant leur soutien au groupe terroriste.

Milner a affirmé que Facebook invite ses utilisateurs à signaler les publications gênantes et des équipes plurilingues « entraînées » à Melno Park, à Austin, à Hyderabad et à Dublin sont chargées de décider de la suppression d’une publication.

« Nous avons mis en place une protection permanente » dit-il. L’équipe de Dublin gère le Moyen-Orient. Lorsque des événements marquants se produisent, les équipes sont en état d’alerte, et surveillent la moindre publication ou le moindre partage problématique. « En général, nous répondons aux signalements sous 24 heures », dit-il. La priorité est données aux éléments ayant trait à la pédophilie ou l’acclamation d’actes terroristes.

« Mais nous faisons des erreurs », admet-il. « Notre communauté réunit 1,8 milliard de personnes, c’est la plus grande au monde. Nous demandons à des êtres humains d’évaluer les signalements d’autres êtres humains. Et les êtres humains font des erreurs. Tout est une question de jugement. »

Il a expliqué que tout dépend du contexte. Parfois, un terme utilisé dans un discours raciste peut être employé dans un contexte satirique, et c’est là que des erreurs peuvent se produire », dit-il. « Mais, étant donné la quantité de choses que nous traitons, il y aura inévitablement des erreurs. »

La technologie de l’intelligence artificielle n’est pas encore assez performante que pour être employée dans ce contexte, dit-il. « Pour le moment, nous nous focalisons sur l’emploi de personnes entraînées », et nous apprenons de nos erreurs, ajout-t-il.