Connectez-vous avec nous

Internet

Selon une étude, les algorithmes de Google contribuent à tromper le public et à légitimer les théoriciens du complot.

Crédit : CC0 Domaine public

Selon des chercheurs de l’Université Simon Fraser (SFU), les algorithmes de Google placent des sous-titres inoffensifs sur d’éminents théoriciens de la conspiration, ce qui induit le public en erreur et amplifie les opinions extrémistes.

Quelqu’un comme Gavin McInnes, créateur de l’organisation néofasciste Proud Boys – une entité terroriste au Canada et un groupe haineux aux États-Unis – n’est pas simplement connu comme un « écrivain canadien », mais c’est la première chose que le sous-titre autocomplémenté du moteur de recherche affiche dans le champ lorsque quelqu’un tape son nom.

Dans une étude publiée dans M/C Journal ce mois-ci, des chercheurs du projet de désinformation de l’École de communication de l’Université Simon Fraser ont examiné les sous-titres que Google a automatiquement suggérés pour 37 théoriciens de la conspiration connus et ont constaté que « dans tous les cas, le sous-titre de Google n’était jamais cohérent avec le comportement conspirationniste de l’acteur ».

Cela signifie que l’influent négationniste de la fusillade de l’école Sandy Hook et théoricien du complot Alex Jones est répertorié comme « animateur radio américain » et que Jerad Miller, un nationaliste blanc responsable d’une fusillade à Las Vegas en 2014, est répertorié comme « artiste américain », même si la majorité des résultats de recherche ultérieurs révèlent qu’il est l’auteur d’une fusillade de masse.

Étant donné la forte dépendance des internautes au moteur de recherche de Google, les sous-titres « peuvent constituer une menace en normalisant les individus qui diffusent des théories du complot, sèment la dissension et la méfiance dans les institutions et causent du tort aux groupes minoritaires et aux personnes vulnérables », explique Nicole Stewart, chargée d’enseignement en communication et doctorante sur le projet de désinformation. Selon Google, les sous-titres sont générés automatiquement par des algorithmes complexes et le moteur ne peut accepter ou créer des sous-titres personnalisés.

Les chercheurs ont constaté que les étiquettes sont soit neutres soit positives – reflétant principalement la description ou le travail préféré de la personne – mais jamais négatives.

« Les préférences des utilisateurs et leur compréhension de l’information peuvent être manipulées en fonction de la confiance qu’ils accordent aux résultats de recherche de Google, ce qui permet à ces étiquettes d’être largement acceptées au lieu de donner une image complète du mal que causent leurs idéologies et leurs croyances », explique Nathan Worku, étudiant en maîtrise sur le projet de désinformation.

Bien que l’étude se soit concentrée sur les théoriciens de la conspiration, le même phénomène se produit lors de la recherche de terroristes et de tueurs de masse largement reconnus, selon les auteurs.

Cette étude souligne le besoin urgent pour Google de revoir les sous-titres attribués aux théoriciens du complot, aux terroristes et aux meurtriers de masse, afin de mieux informer le public sur la nature négative de ces acteurs, plutôt que de toujours les étiqueter de manière neutre ou positive.

Dirigé par le professeur adjoint Ahmed Al-Rawi, The Disinformation Project est un projet de recherche financé par le gouvernement fédéral qui examine les discours sur les fausses nouvelles dans les médias d’information et les médias sociaux canadiens.

Al-Rawi, Stewart, Worku et la boursière post-doctorale Carmen Celestini sont tous les auteurs de cette dernière étude.


Comment les théories du complot aux États-Unis sont devenues plus personnelles, plus cruelles et plus répandues après Sandy Hook.


Plus d’informations :
Ahmed Al-Rawi et al, How Google Autocomplete Algorithms about Conspiracy Theorists Mislead the Public, Journal M/C (2022). DOI : 10.5204/mcj.2852

Fourni par
Université Simon Fraser

Citation:
Google algorithms help mislead public and legitimize conspiracy theorists, study finds (2022, March 31)
récupéré le 1er avril 2022
à partir de https://techxplore.com/news/2022-03-google-algorithms-legitimize-conspiracy-theorists.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune
partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.


Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES