Internet
YouTube continue de proposer des vidéos dangereuses aux utilisateurs sensibles à l’extrémisme, à la suprématie blanche, selon un rapport
YouTube de Google recommande toujours des vidéos extrémistes et suprémacistes blanches aux téléspectateurs déjà sensibles à la haine raciale, selon un nouveau rapport.
Bien que la plate-forme de médias sociaux la plus populaire du pays ait supprimé de grandes quantités de contenu extrémiste sous la pression politique, l’exposition à des vidéos nuisibles est toujours courante et les utilisateurs qui regardent des vidéos extrémistes se voient toujours recommander de nouveaux clips dans le même esprit, selon une étude nationale qui L’ADL (la Ligue anti-diffamation) a publié vendredi, dont une copie préliminaire a été partagée exclusivement avec US TODAY.
Un participant à l’étude sur 10 a visionné au moins une vidéo d’une chaîne extrémiste et 2 sur 10 ont vu au moins une vidéo d’une chaîne «alternative», selon l’étude, qui a examiné les habitudes de visionnage de 915 répondants. Les auteurs de l’étude ont défini l’extrémiste et l’alternative en s’inspirant de recherches publiées sur la radicalisation en ligne.
Le principal esprit? Algorithme de recommandation de YouTube. Lorsque les utilisateurs regardaient ces vidéos, ils étaient plus susceptibles de voir et de suivre les recommandations de vidéos similaires, selon l’étude.
Les chercheurs ont découvert, par exemple, que les utilisateurs qui visionnaient déjà des vidéos extrémistes sur YouTube se voyaient recommander d’autres vidéos extrémistes à regarder près de 30% du temps.
Il est très peu probable que les personnes qui ne regardent pas déjà des vidéos extrémistes sur YouTube soient orientées vers ce type de contenu, ce qui montre que certains des efforts de l’entreprise pour limiter les discours de haine fonctionnent. Les recommandations de vidéos potentiellement dangereuses après avoir visionné d’autres types de vidéos étaient également rares.
L’ADL affirme que les résultats soulignent la nécessité de disposer de plateformes pour supprimer les groupes extrémistes violents et les contenus qui alimentent la violence dans le monde réel comme le siège du 6 janvier sur le Capitole américain.
«Malgré les récents changements apportés par YouTube, nos résultats indiquent que beaucoup trop de gens sont encore exposés à des idées extrémistes sur la plateforme», a déclaré Brendan Nyhan, auteur d’un rapport et professeur de gouvernement au Dartmouth College, dans un communiqué.
« Nous nous félicitons de plus de recherches sur ce front, mais les vues que ce type de contenu obtenu à partir des recommandations a chuté de plus de 70% aux États-Unis, et comme d’autres chercheurs l’ont noté, nos systèmes pointent souvent vers un contenu faisant autorité », a déclaré le porte-parole de YouTube Alex Joseph dans une déclaration.
Pourtant, les experts disent que YouTube pourrait faire beaucoup plus.
« Le fait est qu’ils n’ont pas résolu ce problème et qu’ils proposent toujours de plus en plus de contenu extrémiste à des personnes qui consomment déjà du contenu extrémiste, ce qui est un problème », a déclaré Bridget Todd, écrivain et animatrice du podcast. sont pas de filles sur Internet. » « Ce qu’ils doivent vraiment faire, c’est prendre au sérieux le fait de garder ce genre de choses hors de leur plate-forme et de vraiment travailler sur la façon dont ils peuvent éviter de radicaliser davantage les gens sur YouTube. »
«Moment de la pilule rouge souvent sur YouTube
Pendant des années, étude après étude a montré que YouTube sert de mégaphone pour les suprémacistes blancs et autres groupes haineux et un pipeline pour les recrues.
YouTube affirme avoir considérablement réduit le nombre de vues des vidéos suprémacistes et continue de développer des contre-mesures contre le discours de haine.
« Nous avons des politiques claires qui interdisent les discours de haine et le harcèlement sur YouTube et nous avons mis fin à plus de 235 000 chaînes au cours du dernier trimestre pour avoir enfreint ces politiques », a déclaré Joseph de YouTube. «Au-delà de la suppression de contenu, depuis 2019, nous avons également limité la portée du contenu qui ne viole pas nos politiques mais qui se heurte à la limite, en nous assurant que nos systèmes ne le recommandent pas largement à ceux qui ne le recherchent pas.
Mais pourquoi l’une des plus grandes entreprises du monde a-t-elle mis si longtemps à réagir au problème croissant de l’extrémisme local?
«Lorsque vous parlez à des gens qui faisaient partie du mouvement (suprémaciste blanc), ou lorsque vous lisez dans les salons de discussion ces gens parlent, c’est presque tout à propos de YouTube», Megan Squire, professeur d’informatique à l’Université d’Elon qui étudie l’extrémisme en ligne , a déclaré US TODAY en décembre.
«Leur moment de« pilule rouge »est presque toujours sur YouTube», a déclaré Squire, faisant référence à un terme populaire auprès de l’extrême droite pour décrire le moment où les gens se rendent compte que les suprémacistes blancs et autres théoriciens du complot ont toujours eu raison.
En 2019, un groupe de chercheurs universitaires du Brésil et d’Europe a publié une étude révolutionnaire qui examinait la radicalisation sur YouTube.
En analysant plus de 72 millions de commentaires sur YouTube, les chercheurs ont pu suivre les utilisateurs et les observer migrer vers des contenus plus haineux sur la plateforme. Ils ont conclu que le « pipeline de radicalisation », hypothèse de longue date, sur YouTube existe et que son algorithme a accéléré la radicalisation.
Cependant, une autre étude universitaire a conclu que si des « chambres d’écho » extrémistes existent sur YouTube, il n’y avait aucune preuve qu’elles étaient causées par la recommandation de la plateforme.
YouTube a apporté des modifications après un tollé
Pendant des années, les dirigeants de YouTube ont ignoré les avertissements du personnel selon lesquels sa fonction de recommandation, qui visait à augmenter le temps que les gens passent en ligne et à générer plus de revenus publicitaires, a déclenché la diffusion de contenu extrémiste, selon des rapports publiés.
Après un tollé des annonceurs en 2017, YouTube a interdit aux publicités de s’afficher aux côtés de contenus qui encouragent la haine ou la discrimination ou dénigrent les groupes protégés.
YouTube a limité les recommandations sur ces vidéos et les fonctionnalités désactivées telles que les commentaires et le partage. Mais cela ne les a pas supprimés. La société a déclaré que la répression avait réduit de 80% le nombre de vues des vidéos suprémacistes.
L’année dernière, YouTube a modifié sa fonctionnalité de recommandation pour réduire la visibilité de ce qu’il appelle le «contenu limite», des vidéos qui se heurtent à ses conditions de service mais ne les enfreignent pas.
Toujours en 2019, il a supprimé des milliers de chaînes et resserré sa politique en matière de discours de haine pour interdire les vidéos affirmant que tout groupe est supérieur « afin de justifier la discrimination, la ségrégation ou l’exclusion basée sur des qualités telles que la race, la religion ou l’orientation sexuelle ».
Mais l’étude ADL montre qu’un tel contenu est toujours facilement accessible sur le site, et Todd se demande pourquoi une grande entreprise comme Google ne peut pas simplement éradiquer complètement les discours de haine de YouTube.
« D’autres plates-formes ont compris cela », a déclaré Todd. « Je ne pense pas que ce soit quelque chose qui échappe à leur contrôle. »
Le rapport du groupe de réflexion de Google sur la suprématie blanche en dit peu sur le rôle de YouTube dans les personnes poussées à l’extrémisme
(c) 2021 États-Unis aujourd’hui
Distribué par Tribune Content Agency, LLC.
Citation: YouTube continue de proposer des vidéos dangereuses aux utilisateurs sensibles à l’extrémisme, à la suprématie blanche, d’après le rapport (2021, 15 février) récupéré le 15 février 2021 sur https://techxplore.com/news/2021-02-youtube-dangerous-videos-users -susceptible.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire