LComme avec la communication verbale, les gens font souvent des allusions subtiles dans leurs messages sur les médias sociaux au sujet des choses qu’ils envisagent de faire – comme un suicide, la réalisation d’un acte de terrorisme ou d’autres comportements antisociaux.

Débusquer les potentiels acteurs antisociaux sur les médias sociaux avant qu’ils ne puissent agir est devenu un objectif important des agences de la sécurité du monde entier.

Et maintenant, un système d’analyse des sentiments développé par un étudiant du Technion pourrait être utilisé à cette seule fin.

Le système développé par un étudiant en informatique du Technion, Eden Saig, est décrit dans un document intitulé « Classification par sentiment des textes des réseaux sociaux », qui a remporté le concours du meilleur projet Amdocs, un événement universitaire annuel qui s’est achevé récemment.

Selon Saig, il est possible de détecter l’intention de ceuxqui publient des messages sur les médias sociaux à partir des impressions qu’ils dégagent dans la façon dont ils présentent leurs idées – d’une manière beaucoup plus précise que les smileys et des émoticônes fronçant les sourcils utilisés sur les réseaux sociaux pour exprimer leurs sentiments.

Vous ne pouvez pas les utiliser pour jauger le sentiment – le sens réel derrière un message. « Ces icônes sont des indices superficielles au mieux », a déclaré Saig. « Ils ne pourraient jamais exprimer les sentiments subtils ou complexes qui existent dans la communication verbale de la vie réelle. » Ils sont trop bruts, trop généraux, contrairement aux subtilités utilisées par les gens quand ils communiquent verbalement – le ton de la voix, l’inflexion d’un mot, sourcil retroussé, le regard « surpris » et bien plus encore.

Y a-t-il un équivalent textuel de ces signaux – qui racontent souvent ce qui est dans l’esprit d’une personne avec beaucoup plus de précision que leurs paroles ? Pour le savoir, Saig a analysé les messages sur les pages Facebook en hébreu qui sont presque des opinions pures qu’il a appelés « des personnes supérieures et condescendantes » et « les gens ordinaires et raisonnables ».

Ces pages sont essentiellement des forums pour que les gens puissent se défouler contre des choses, des personnes et des événements qui les énervent, un substitut à l’affrontement effectif avec la personne incriminée. A elles deux, les pages ont enregistré environ 150 000 « aime » et avaient un trafic actif avec des commentaires railleurs, sarcastiques, et parfois sincères sur la politique, la nourriture, les pilotes et bien plus encore.

En tant que moyen pour les gens d’exprimer leurs pensées au sujet de tout le monde, les deux pages Facebook sont une bonne source de matériel pour tester ses théories, a précisé Saig. « Le contenu de ces pages pourrait fournir une bonne base de données pour la collecte de données homogènes qui pourrait, à son tour, aider à ‘enseigner’ un système d’apprentissage informatisé pour reconnaître une sémantique sonnant comme étant condescendante ou des mots d’argot et des expressions dans le texte. »

Ayant extrait environ 5 000 messages de ces pages, Saig les a passés par des algorithmes spécialement conçus pour identifier les tendances dans le texte – la vérification des références, des repères, la syntaxe, les usages familiers et le langage grossier ou le sarcasme.

Par exemple, une publication qui utilise une phrase qui pourrait être adressée à un mendiant : « Je serais heureux de vous acheter de la nourriture mais je ne vous donnerai pas d’argent », a généré 1093 ‘aime’ et des dizaines de commentaires.

Basé sur ces commentaires et d’autres semblables, le système de Saig peut identifier l’intention de la déclaration de la personne. Était-il condescendant ? Sincère ? Serviable ? Avait-il l’intention de rabaisser le mendiant ? Cela impliquerait que, s’il veut de l’argent, il devrait trouver un emploi, ou la crainte du donneur potentiel que le mendiant (qui, c’est très probable, n’a pas de compétences en gestion de l’argent) utiliserait l’argent à tort (pour de la drogue ou de l’alcool au lieu d’acheter de la nourriture), ou motivé par le souci que le mendiant puisse avoir au moins un repas complet, de peur qu’il perde de l’argent ou ne se fasse volé par quelqu’un ?

Après vérification des milliers de ces messages, Saig affirme que son système est maintenant en mesure de déterminer avec succès la motivation et le sentiment enfoui dans le texte. « Maintenant, le système peut reconnaître des schémas qui sont des sentiments condescendants ou bienveillants et peut même envoyer un message à l’utilisateur si le système pense que le message peut être arrogant », a-t-il précisé.

Eden Saig (Crédit : Autorisation)

Eden Saig (Crédit : Autorisation)

Pour Saig, ses recherches ont un but plus pratique. Lors de la préparation du marathon de Boston de cette année, par exemple, la police a passé au peigne fin les messages des médias sociaux à la recherche de terroristes voulant reproduire les attaques qui ont tué trois personnes et blessé plus de 250 personnes lors de la course 2013.

Les autorités ont engagé un grande entreprise de données qui a recherché sur les médias sociaux les mots liés à la violence, aux conflits, aux bombes, et autres – mais en basant sa recherche sur des mots-clés, ce qui fait que l’on rencontre souvent des faux positifs, où les utilisateurs des médias sociaux plante des menaces « pour rigoler ».

Bien que la plupart des gens ne sont pas susceptibles de le faire, il y a toujours la possibilité que certains enfants idiots essayant d’être « drôle » puissent le faire et mangent des ressources importantes de la police qui vérifiera cette fausse alarme, et peut-être permettra aux terroristes réels de mettre en œuvre une attaque tandis que les autorités seront distraites. En incluant l’analyse des sentiments, la possibilité de faux positifs pourrait être considérablement réduite, conclut l’étude de Saig.

La même chose vaut pour les questions telles que la dépression, le suicide des adolescents, l’intimidation et le harcèlement en ligne : à quel point un cri d’appel à l’aide est-il sérieux ? Est-ce juste quelqu’un qui passe un bon moment au détriment des autres ? Comment les autorités de la santé mentale peuvent prévenir les suicides chez les enfants qui ne postent pas nécessairement leurs intentions ou des notes de suicide en ligne ?

L’analyse des sentiments ouvre une fenêtre sur l’intention, même si cette intention est tacite. Saig estime qu’il est très prometteur, tant pour la société que pour les individus. « Je souhaite qu’au final je puisse développer un mécanisme qui me permettrait de démontrer à l’auteur [des propos] comment ses mots pourraient être interprétés par les lecteurs », a déclaré Saig, « aidant ainsi les gens à mieux s’exprimer et éviter d’être mal compris ».