Connectez-vous avec nous

Internet

Les entreprises technologiques suppriment le contenu de coronavirus «  nocif '' – mais qui décide de ce que cela signifie?

Crédits: Pearl PhotoPix / Shutterstock

L '«infodémie» de désinformation sur le coronavirus a rendu difficile la distinction entre les informations exactes et les conseils faux et trompeurs. Les grandes entreprises technologiques ont répondu à ce défi en prenant l'initiative sans précédent de travailler ensemble pour lutter contre la désinformation sur le COVID-19.

Une partie de cette initiative consiste à promouvoir le contenu des agences gouvernementales de santé et d'autres sources faisant autorité, et à introduire des mesures pour identifier et supprimer le contenu qui pourrait causer des dommages. Par exemple, Twitter a élargi sa définition du préjudice pour aborder le contenu qui contredit les directives de sources fiables d'information sur la santé publique.

Facebook a embauché des services de vérification des faits supplémentaires pour éliminer les informations erronées qui pourraient entraîner des dommages physiques imminents. YouTube a publié une politique de désinformation médicale COVID-19 qui interdit "le contenu sur COVID-19 qui présente un risque grave de préjudice grave".

Le problème avec cette approche est qu'il n'y a pas de compréhension commune de ce qui constitue un préjudice. Les différentes façons dont ces entreprises définissent le préjudice peuvent produire des résultats très différents, ce qui mine la confiance du public dans la capacité des entreprises technologiques à modérer les informations sur la santé. Comme nous l'affirmons dans un récent document de recherche, pour résoudre ce problème, ces entreprises doivent être plus cohérentes dans leur définition du préjudice et plus transparentes dans la manière dont elles y réagissent.

La science est sujette à changement

La nouveauté du virus est l'un des principaux problèmes liés à l'évaluation de la désinformation sur la santé pendant la pandémie. Il y a encore beaucoup de choses que nous ne savons pas sur le COVID-19, et une grande partie de ce que nous pensons savoir est susceptible de changer en fonction des découvertes émergentes et de nouvelles découvertes. Cela a un impact direct sur le contenu considéré comme dangereux.

La pression exercée sur les scientifiques pour qu'ils produisent et partagent leurs découvertes pendant la pandémie peut également nuire à la qualité de la recherche scientifique. Les serveurs de pré-impression permettent aux scientifiques de publier rapidement leurs recherches avant qu'elles ne soient examinées. Les essais contrôlés randomisés de haute qualité prennent du temps. Plusieurs articles dans des revues à comité de lecture ont été retirés en raison de sources de données peu fiables.

Même l'Organisation mondiale de la santé (OMS) a changé sa position sur la transmission et la prévention de la maladie. Par exemple, il n'a commencé à recommander que les personnes en bonne santé portent des masques en public avant le 5 juin, "sur la base de nouvelles découvertes scientifiques".

Pourtant, les principales sociétés de médias sociaux se sont engagées à supprimer les allégations qui contredisent les directives de l'OMS. En conséquence, ils pourraient supprimer le contenu qui se révélera plus tard exact.

Cela met en évidence les limites de la base des politiques de prévention des dommages sur une seule source faisant autorité. Le changement est intrinsèque à la méthode scientifique. Même les avis faisant autorité sont sujets à débat, modification et révision.

Le mal est politique

Évaluer les dommages de cette manière ne tient pas non plus compte des incohérences dans les messages de santé publique dans différents pays. Par exemple, les réponses initiales de la Suède et de la Nouvelle-Zélande au COVID-19 étaient diamétralement opposées, la première basée sur "l'immunité collective" et la seconde visant à éliminer le virus. Pourtant, les deux étaient fondés sur des avis scientifiques faisant autorité. Même au sein des pays, les politiques de santé publique diffèrent au niveau des États et au niveau national et il y a désaccord entre les experts scientifiques.

Exactement ce qui est considéré comme nocif peut devenir politisé, comme le montrent les débats sur l'utilisation de l'hydroxychloroquine et de l'ibuprofène, un médicament antipaludique, comme traitements potentiels du COVID-19. De plus, il y a des questions auxquelles la science ne peut pas répondre uniquement. Par exemple, s'il faut donner la priorité à la santé publique ou à l'économie. Ce sont des considérations éthiques qui restent très contestées.

La modération du contenu en ligne implique inévitablement un arbitrage entre des intérêts et des valeurs concurrents. Pour répondre à la vitesse et à l'échelle du contenu généré par les utilisateurs, la modération des réseaux sociaux repose principalement sur des algorithmes informatiques. Les utilisateurs peuvent également signaler ou signaler un contenu potentiellement dangereux.

Bien qu'ils soient conçus pour réduire les dommages, ces systèmes peuvent être utilisés par des utilisateurs avertis pour générer de la publicité et de la méfiance. C'est notamment le cas des campagnes de désinformation, qui cherchent à provoquer la peur, l'incertitude et le doute.

Les utilisateurs peuvent profiter du langage nuancé autour de la prévention des maladies et des traitements. Par exemple, les anecdotes personnelles sur les régimes et les suppléments «stimulant le système immunitaire» peuvent être trompeuses mais difficiles à vérifier. Par conséquent, ces allégations ne relèvent pas toujours de la définition de préjudice.

De même, l'utilisation de l'humour et la sortie du contenu de son contexte («la militarisation du contexte») sont des stratégies couramment utilisées pour contourner la modération du contenu. Les mèmes, images et questions sur Internet ont également joué un rôle crucial dans la méfiance à l'égard de la science et de la politique dominantes pendant la pandémie et ont contribué à alimenter les théories du complot.

Transparence et confiance

Le flou et l'incohérence de la modération du contenu des entreprises technologiques signifient que certains contenus et comptes d'utilisateurs sont rétrogradés ou supprimés tandis que d'autres contenus sans doute préjudiciables restent en ligne. Les "rapports de transparence" publiés par Twitter et Facebook ne contiennent que des statistiques générales sur les demandes de suppression de contenu par pays et peu de détails sur ce qui est supprimé et pourquoi.

Ce manque de transparence signifie que ces entreprises ne peuvent pas être suffisamment tenues pour responsables des problèmes liés à leurs tentatives de lutte contre la désinformation, et il est peu probable que la situation s'améliore. Pour cette raison, nous pensons que les entreprises de technologie devraient être tenues de publier les détails de leurs algorithmes de modération et un enregistrement de la désinformation sur la santé supprimée. Cela augmenterait la responsabilité et permettrait un débat public là où le contenu ou les comptes semblent avoir été supprimés injustement.

En outre, ces entreprises devraient mettre en évidence des allégations qui pourraient ne pas être manifestement préjudiciables mais qui sont potentiellement trompeuses ou en contradiction avec les conseils officiels. Ce type d'étiquetage fournirait aux utilisateurs des informations crédibles leur permettant d'interpréter ces allégations sans supprimer le débat.

Grâce à une plus grande cohérence et transparence dans leur modération, les entreprises technologiques fourniront un contenu plus fiable et augmenteront la confiance du public, ce qui n'a jamais été aussi important.


Twitter va qualifier le contenu de virus «  trompeur ''


Fourni par
La conversation


Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.La conversation

Citation:
Désinformation: les entreprises technologiques suppriment le contenu de coronavirus «  nocif '' – mais qui décide de ce que cela signifie? (2020, 28 août)
récupéré le 29 août 2020
depuis https://techxplore.com/news/2020-08-misinformation-tech-companies-coronavirus-content.html

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privées, aucune
une partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.

Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES