Internet
Facebook dément la recherche indirecte sur la «division» du site
Mercredi, Facebook s'est défendu contre un rapport selon lequel il aurait mis de côté des recherches internes indiquant qu'il divisait les gens au lieu de les rassembler.
Les algorithmes du réseau de médias sociaux visent à amener les utilisateurs à passer plus de temps sur le site.
Mais ils "exploitent l'attrait du cerveau humain pour la division", a déclaré une diapositive d'une présentation de 2018 par une équipe de recherche Facebook, selon le rapport du Wall Street Journal.
Il a averti que s'il n'était pas contrôlé, Facebook nourrirait les utilisateurs "de plus en plus de contenu source de division afin d'attirer l'attention des utilisateurs et d'augmenter le temps sur la plate-forme".
Le chef de Facebook, Mark Zuckerberg, et d'autres dirigeants ont mis de côté la recherche, cependant, en raison de craintes qu'elle soit trop paternaliste ou entraînerait des changements de produit qui accableraient les utilisateurs politiquement conservateurs, a rapporté le Journal.
Le vice-président à l'intégrité de l'entreprise, Guy Rosen, a critiqué le Journal, affirmant que le journal "avait délibérément ignoré les faits critiques qui ont miné son récit".
"La pièce utilise quelques initiatives isolées contre lesquelles nous avons décidé comme preuve que nous ne nous soucions pas des problèmes sous-jacents et elle a ignoré les efforts importants que nous avons faits", a déclaré Rosen dans un message en ligne.
"En conséquence, les lecteurs ont eu l'impression que nous ignorions un problème dans lequel nous avons en fait investi massivement."
Le rapport du Journal a également cité une étude de 2016 sur Facebook qui a montré que, parmi les groupes politiques allemands, "64% de tous les groupes extrémistes adhèrent à nos outils de recommandation".
"Nos systèmes de recommandation aggravent le problème", indique le rapport.
Pendant des années, Facebook a été critiqué pour avoir permis à la haine de s'épanouir sur le réseau à l'échelle mondiale, les publications attisant les divisions pendant la pandémie de coronavirus n'étant que l'exemple le plus récent.
L'un des exemples les plus notoires est au Myanmar, où le géant de la technologie a été accusé d'être lent à répondre à des messages abusifs dépeignant les musulmans rohingyas du pays en termes sous-humains, aidant à mobiliser le soutien pour une répression militaire qui a forcé plus de 720 000 de la minorité apatride à fuir le pays en 2017.
Rosen n'a pas nié l'existence de l'étude, mais a souligné les mesures prises par Facebook depuis 2016 pour lutter contre la désinformation, le harcèlement, les menaces et d'autres comportements abusifs.
"Nous avons pris un certain nombre de mesures importantes pour réduire la quantité de contenu qui pourrait entraîner la polarisation sur notre plate-forme, parfois au détriment des revenus", a déclaré Rosen.
"Ce travail ne sera jamais terminé, car au bout du compte, le discours en ligne est une extension de la société et le nôtre est très polarisé."
Un bug Facebook a supprimé à tort les nouvelles authentiques du coronavirus
© 2020 AFP
Citation:
Facebook dément la recherche indirecte sur la « division '' du site (2020, 28 mai)
récupéré le 28 mai 2020
sur https://techxplore.com/news/2020-05-facebook-denies-sidelining-site-divisiveness.html
Ce document est soumis au droit d'auteur. Hormis toute utilisation équitable aux fins d'études ou de recherches privées, aucune
une partie peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire