Internet
Un nouvel algorithme permet de distinguer les cyberintimidateurs des utilisateurs normaux de Twitter avec une précision de 90%
Une équipe de chercheurs, y compris des professeurs de l’Université de Binghamton, ont mis au point des algorithmes d’apprentissage automatique capables d’identifier avec succès des intimidateurs et des agresseurs sur Twitter avec une précision de 90%.
Les outils efficaces pour détecter les actions préjudiciables sur les médias sociaux sont rares, car ce type de comportement est souvent de nature ambiguë et / ou est présenté via des commentaires et des critiques apparemment superficiels. Dans le but de remédier à cette lacune, une équipe de recherche composée de Jeremy Blackburn, informaticien à la Binghamton University, a analysé les schémas comportementaux des utilisateurs abusifs de Twitter et leurs différences par rapport aux autres utilisateurs de Twitter.
"Nous avons créé des robots, des programmes qui collectent des données sur Twitter via divers mécanismes", a déclaré Blackburn. "Nous avons rassemblé les tweets des utilisateurs de Twitter, leurs profils, ainsi que des éléments liés aux réseaux (sociaux), comme ceux qu'ils suivent et qui les suivent."
Les chercheurs ont ensuite effectué un traitement du langage naturel et une analyse des sentiments sur les tweets eux-mêmes, ainsi que diverses analyses de réseaux sociaux sur les connexions entre les utilisateurs. Les chercheurs ont mis au point des algorithmes permettant de classer automatiquement deux types de comportement offensant en ligne, à savoir la cyberintimidation et la cyberagression. Les algorithmes ont pu identifier les utilisateurs abusifs sur Twitter avec une précision de 90%. Ce sont des utilisateurs qui se livrent à un comportement harcelant, par exemple. ceux qui envoient des menaces de mort ou font des remarques racistes aux utilisateurs.
"En un mot, les algorithmes" apprennent "à faire la différence entre les intimidateurs et les utilisateurs types en évaluant certaines fonctionnalités au fur et à mesure qu'elles sont montrées à d'autres exemples", a déclaré Blackburn.
Bien que cette recherche puisse aider à atténuer la cyberintimidation, il ne s'agit que d'une première étape, a déclaré Blackburn.
"L'un des plus gros problèmes en matière de cybersécurité est que les dommages causés soient causés aux humains, et qu'il est très difficile de les" annuler ", a déclaré Blackburn. "Par exemple, nos recherches indiquent que l'apprentissage par la machine peut être utilisé pour détecter automatiquement les cyberintimidateurs et aider ainsi Twitter et d'autres plateformes de médias sociaux à éliminer les utilisateurs problématiques. Cependant, un tel système est finalement réactif: il ne prévient pas intrinsèquement l'intimidation. Ce qui est malheureux, c’est que même si les comptes d’intimidation sont supprimés, même si toutes leurs attaques précédentes sont supprimées, les victimes ont toujours été vues et pourraient être affectées par ces actes. "
Blackburn et son équipe étudient actuellement des techniques d'atténuation proactives pour faire face aux campagnes de harcèlement.
L’étude "Détecter la cyberintimidation et la cyberagression dans les médias sociaux" a été publiée dans Transactions sur le Web.
Twitter ajoute plus d'outils de sécurité et mettra fin aux comptes abusifs
Détecter la cyberintimidation et la cyberagression dans les médias sociaux, arXiv: 1907.08873 [cs.SI] arxiv.org/abs/1907.08873
Citation:
Un nouvel algorithme permet de distinguer les cyberintimidateurs des utilisateurs normaux de Twitter avec une précision de 90% (16 septembre 2019)
récupéré le 16 septembre 2019
à partir de https://techxplore.com/news/2019-09-algorithm-distinguish-cyberbullies-twitter-users.html
Ce document est soumis au droit d'auteur. Mis à part toute utilisation équitable à des fins d’étude ou de recherche privée, aucun
partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire