Internet
Des robots Facebook pour lutter contre les mauvais comportements
En tant que plus grand réseau social au monde, Facebook offre des heures interminables de discussions, de divertissement, d'actualités, de vidéos et juste de bons moments pour plus de 2,6 milliards d'utilisateurs.
Il est également mûr pour les activités malveillantes, les attaques de robots, les escroqueries et les discours de haine.
Dans un effort pour lutter contre les mauvais comportements, Facebook a déployé une armée de robots dans une version simulée du réseau social pour étudier leur comportement et suivre leur évolution vers une activité antisociale.
Tirant les principes de l'apprentissage automatique, de l'intelligence artificielle, de la théorie des jeux et des systèmes multi-agents, les ingénieurs de Facebook ont développé le programme — Web-Enabled Simulation (WES) —une réplique à grande échelle très réaliste de Facebook.
Ils espèrent remédier à la croissance explosive du harcèlement en ligne, en particulier en cette ère de désinformation politique, de théories du complot farfelues et de discours de haine.
Les robots WES sont formés pour interagir les uns avec les autres, envoyer des messages, commenter les messages et faire des demandes d'amis. Ils ne peuvent pas interagir avec les utilisateurs réels.
Mark Harman, le principal chercheur scientifique de Facebook qui a publié un résumé de l'effort WES sur un blog jeudi, a expliqué: «L'approche WES peut automatiquement explorer des scénarios compliqués dans un environnement simulé. Alors que le projet en est actuellement à un stade de recherche uniquement , l’espoir est qu’un jour, cela nous aidera à améliorer nos services et à détecter les problèmes potentiels de fiabilité ou d’intégrité avant qu’ils n’affectent de vraies personnes utilisant la plate-forme. »
Des millions de robots avec des objectifs différents peuvent être déployés dans le système expérimental. Certains, par exemple, tenteront d'acheter des articles qui ne sont pas autorisés sur le site, tels que des armes à feu ou de la drogue. Les chercheurs suivront les modèles appliqués par les robots lorsqu'ils effectuent des recherches, visitent des pages et répliquent les actions que les humains pourraient entreprendre.
Ils évalueront ensuite diverses contre-mesures pour voir laquelle arrêter le plus efficacement ou même prévenir les comportements indésirables.
Harmon a comparé leur approche à celle des ingénieurs de la circulation à la recherche de moyens de créer des routes plus sûres. Pour freiner les speeders, par exemple, les urbanistes peuvent installer plus de panneaux d'arrêt. Si cette mesure est insuffisante, des bosses routières peuvent être installées. Avec les comportements Facebook, les contre-mesures pourraient inclure la limitation de la fréquence des commentaires sur les publications ou l'application de la vérification des faits aux publications de complot douteuses.
«Nous appliquons des« ralentisseurs »aux actions et observations que nos robots peuvent effectuer», a déclaré Harman, «et explorons si rapidement les changements possibles que nous pourrions apporter aux produits pour empêcher les comportements nocifs sans nuire au comportement normal», a déclaré Harman.
Le projet est en phase de recherche. Aucun changement n'a encore été apporté à la plate-forme Facebook réelle, bien que les chercheurs disent que des modifications seront introduites dès qu'elles confirmeront que les comportements de correction des robots imitent le comportement humain avec un degré suffisamment élevé de précision et de fiabilité.
WES est affectueusement appelé dub-dub. Le surnom est dérivé d'une abréviation de la prononciation de "WW", ("dub" au lieu de "double-u") lui-même une version tronquée de "WWW", ou World Wide Web. WES est une version abrégée du World Wide Web, par conséquent, il est désigné avec seulement deux W.
L'expérience peut rappeler un projet récent abandonné par Facebook lors d'une tournure inattendue des événements. Dans une expérience de 2017 qui visait à apprendre aux chatbots à négocier entre eux, les chercheurs ont laissé deux chatbots seuls pour voir comment leurs négociations allaient progresser. Mais lorsque les chercheurs du Facebook AI Research Lab sont revenus, ils ont été stupéfaits de découvrir que les chatbots, Alice et Bob, étaient sortis du script et avaient en fait inventé un nouveau langage.
Les chercheurs, peut-être en gardant à l'esprit l'avertissement sévère du célèbre physicien Stephen Hawking selon lequel le froid de l'IA "décolle d'elle-même et se reconce à un rythme toujours croissant" et "pourrait signifier la fin de la race humaine", ont brusquement mis fin au expérience.
Des robots Facebook pour créer un univers plus convivial
ai.facebook.com/blog/a-faceboo… ct-nuisibles-comportements
© 2020 Réseau Science X
Citation:
Des robots Facebook pour lutter contre les mauvais comportements (24 juillet 2020)
récupéré le 24 juillet 2020
depuis https://techxplore.com/news/2020-07-facebook-bots-combat-bad-behavior.html
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privées, aucune
une partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire