Connectez-vous avec nous

Internet

Le rapport du groupe de réflexion de Google sur la suprématie blanche en dit peu sur le rôle de YouTube dans les personnes poussées à l’extrémisme

Crédit: CC0 Public Domain

Un rapport financé par Google examine la relation entre les suprémacistes blancs et Internet, mais il ne fait que peu de références – toutes positives – à YouTube, la plate-forme de l’entreprise que de nombreux experts accusent plus que toute autre d’avoir conduit les gens à l’extrémisme.

Le rapport de Jigsaw, un «incubateur technologique» qui opère au sein de Google depuis une dizaine d’années, s’inspire d’entretiens avec des dizaines d’anciens extrémistes et décrit comment Internet est un terreau fertile pour les groupes haineux.

Des études après études ont montré que YouTube sert de mégaphone pour les suprémacistes blancs et autres groupes haineux et un pipeline pour les recrues. On a découvert que l’algorithme de YouTube dirigeait les utilisateurs vers des contenus extrêmes, les aspirant dans des idéologies violentes.

«Ils sous-estiment le rôle de leur propre technologie et de leurs propres plates-formes dans la poussée des gens vers l’extrémisme», a déclaré Bridget Todd, écrivain et animatrice du podcast «Il n’y a pas de filles sur Internet».

« Les individus ont certainement la responsabilité de ne pas se laisser engloutir par un contenu extrémiste », a déclaré Todd. « Mais si vous êtes une plate-forme comme Google, vous ne pouvez pas simplement souligner la responsabilité de l’individu et obscurcir complètement le fait que votre plate-forme massive a permis au contenu extrémiste en ligne de s’envenimer et de devenir si populaire. »

Vidéos de la «  pilule rouge  » de YouTube

Comme d’autres plateformes technologiques majeures, YouTube a récemment orienté davantage de ressources vers la modération du contenu. La société affirme avoir considérablement réduit le nombre de vues sur les vidéos suprémacistes et continue de développer des contre-mesures contre le discours de haine.

Mais les chercheurs qui ont pendant des années vu des gens se radicaliser via YouTube se demandent ce qui a pris tant de temps à l’une des plus grandes entreprises du monde pour réagir au problème croissant de l’extrémisme local.

«Lorsque vous parlez à des gens qui faisaient partie du mouvement (de la suprématie blanche), ou lorsque vous lisez dans les salons de discussion ces gens parlent, c’est presque tout à propos de YouTube», a déclaré Megan Squire, professeur d’informatique à l’Université d’Elon qui étudie en ligne. extrémisme.

«Leur moment de« pilule rouge »est presque toujours sur YouTube», a déclaré Squire, faisant référence à un terme populaire auprès de l’extrême droite pour décrire le moment où les gens se rendent compte que les suprémacistes blancs et autres théoriciens du complot ont toujours eu raison.

Squire et d’autres ont suggéré plusieurs mesures que Google pourrait prendre immédiatement pour résoudre les problèmes décrits dans le rapport Jigsaw. Il pourrait fournir un financement à certaines des organisations à but non lucratif anti-extrémistes qui y sont louées. Google pourrait augmenter considérablement la modération – Squire a déclaré qu’il devrait être multiplié par 10. Et il pourrait financer la recherche universitaire sur la façon dont les gens sont radicalisés en ligne.

Le géant de la technologie pourrait également ouvrir ses données afin que les universitaires puissent pleinement étudier des plates-formes comme YouTube et leur rôle dans la diffusion de contenu extrémiste, ont déclaré plusieurs experts.

Le rapport Jigsaw intervient alors que l’examen bipartisan des principales entreprises technologiques du pays s’intensifie à Washington, DC Google a rejoint Twitter et Facebook sous les projecteurs, défendant ses politiques et son bilan sur tout, de la désinformation au discours de haine.

En octobre, le ministère de la Justice a accusé Google de violer les lois antitrust en étouffant la concurrence et en nuisant aux consommateurs dans les recherches et la publicité en ligne.

L’étude de Google sur la suprématie blanche offre peu de nouveautés

Le rapport Jigsaw, intitulé «Le courant: le problème de la suprématie blanche», fait quelques remarques clés sur la façon dont la haine se métastase en ligne.

« Les loups solitaires » – les personnes qui ont perpétré des fusillades de masse et d’autres crimes de haine violents – ne sont pas du tout seuls, indique le rapport. Ils sont souvent connectés via des plateformes et des communautés en ligne.

Le rapport décrit «l’écosystème alt-tech» en pleine croissance, dans lequel les nouvelles plateformes de médias sociaux comme Gab et Parler attirent les suprémacistes blancs lancés sur Facebook et Twitter.

Les chercheurs de Jigsaw détaillent comment les suprématistes attrapent les personnes vulnérables en ligne avec des versions plus douces de leur vision du monde haineuse avant d’introduire des concepts plus extrêmes.

Rien de tout cela n’est nouveau pour ceux qui surveillent et étudient l’extrémisme.

« Cela semble très dérivé et facile », a déclaré Squire. « Je n’ai rien appris en lisant ceci, et c’est décevant. »

Le rapport Jigsaw répond à ces critiques, affirmant que ses conclusions ne seront pas nouvelles pour les victimes de discrimination et de crimes haineux, mais « nous espérons qu’il pourra encore offrir une nuance perspicace dans les tactiques en évolution des suprémacistes blancs en ligne qui font progresser les efforts pour contrer la suprématie blanche. « 

Radicalisation YouTube: comment ça marche

À la fin de 2019, un groupe de chercheurs universitaires du Brésil et d’Europe a publié une étude révolutionnaire qui examinait la radicalisation sur YouTube.

En analysant plus de 72 millions de commentaires sur YouTube, les chercheurs ont pu suivre les utilisateurs et les observer migrer vers des contenus plus haineux sur la plateforme. Ils ont conclu que le « pipeline de radicalisation », hypothèse de longue date, sur YouTube existe certainement et que son algorithme a accéléré la radicalisation.

« Nous avons trouvé un effet très fort », a déclaré Manoel Horta Ribeiro, l’un des principaux auteurs de l’étude. « Les personnes qui commentaient les canaux alt-right avaient précédemment commenté certains des canaux les plus passerelles. C’était un pipeline. »

Pendant des années, les dirigeants de YouTube ont ignoré les avertissements du personnel selon lesquels sa fonction de recommandation, qui visait à augmenter le temps que les gens passent en ligne et à générer plus de revenus publicitaires, a déclenché la diffusion de contenu extrémiste, selon des rapports publiés.

Après un tollé des annonceurs en 2017, YouTube a interdit aux publicités de s’afficher aux côtés de contenus qui encouragent la haine ou la discrimination ou dénigrent les groupes protégés. YouTube a limité les recommandations sur ces vidéos et les fonctionnalités désactivées telles que les commentaires et le partage. Mais cela ne les a pas supprimés. La société a déclaré que la répression avait réduit de 80% les vues des vidéos suprémacistes.

L’année dernière, YouTube a modifié sa fonctionnalité de recommandation pour réduire la visibilité de ce qu’il appelle le «contenu limite», des vidéos qui se heurtent à ses conditions de service mais ne les enfreignent pas. Toujours en 2019, il a supprimé des milliers de chaînes et resserré sa politique en matière de discours de haine pour interdire les vidéos affirmant que tout groupe est supérieur « afin de justifier la discrimination, la ségrégation ou l’exclusion sur la base de qualités telles que la race, la religion ou l’orientation sexuelle ».

« Au cours des dernières années, nous avons pris des mesures pour nous assurer que ceux qui visent à répandre l’idéologie suprémaciste ne peuvent pas le faire sur YouTube », a déclaré Alex Joseph, un porte-parole de YouTube, dans un communiqué. « Ces interventions ont eu un impact significatif et notre travail ici se poursuit. »

Mais YouTube a toujours ses problèmes et l’entreprise est vivement critiquée pour ne pas en faire assez, assez tôt.

«La porte de la grange n’est pas seulement ouverte, le cheval est déjà sorti et il piétine les bébés», a déclaré Talia Lavin, écrivain et spécialiste des suprématistes blancs. «Maintenant, ils veulent du crédit pour avoir fermé la porte de la grange? Je ne pense pas qu’il y ait de crédit.

Un rapport de 792 pages de la Commission royale de Nouvelle-Zélande publié la semaine dernière indique que le terroriste australien qui a tué 51 personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande, l’année dernière, a été radicalisé sur YouTube.

« Ce qui ressortait particulièrement, c’était la déclaration du terroriste selon laquelle il n’était » pas un commentateur fréquent sur les sites d’extrême droite et YouTube était une source importante d’informations et d’inspiration «  », a déclaré Jacinda Ardern, Premier ministre néo-zélandais, selon Le gardien.

« C’est un point que je compte faire valoir directement auprès des dirigeants de YouTube. »


YouTube supprimera les vidéos faisant des allégations préjudiciables enracinées dans des théories du complot


© 2020 États-Unis aujourd’hui
Distribué par Tribune Content Agency, LLC

Citation: Le rapport du groupe de réflexion de Google sur la suprématie blanche en dit peu sur le rôle de YouTube dans les personnes conduites à l’extrémisme (2020, 15 décembre) récupéré le 15 décembre 2020 sur https://techxplore.com/news/2020-12-google-tank-white-supremacy -youtube.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES