Internet
Les utilisateurs de Facebook (et leur parti pris) sont la clé
Les informations que nous rencontrons quotidiennement en ligne peuvent être trompeuses, incomplètes ou fabriquées.
Être exposé à de "fausses nouvelles" sur des réseaux sociaux tels que Facebook et Twitter peut influencer nos pensées et nos décisions. Nous avons déjà vu des informations erronées interférer avec les élections aux États-Unis.
Le fondateur de Facebook, Mark Zuckerberg, a maintes fois proposé l'intelligence artificielle comme solution au faux dilemme de l'actualité.
Cependant, le problème nécessite probablement une implication humaine importante, de nombreux experts s'accordant sur le fait que les technologies d'intelligence artificielle doivent encore progresser.
Deux de mes collègues et moi-même avons reçu des fonds de Facebook pour mener, de manière indépendante, des recherches sur une approche de l'IA "humaine au courant" qui pourrait contribuer à réduire l'écart.
Human-in-the-loop fait référence à l'implication des humains (utilisateurs ou modérateurs) pour aider l'IA à faire son travail. Par exemple, en créant des données d'apprentissage ou en validant manuellement les décisions prises par AI.
Notre approche associe la capacité d'AI à traiter de grandes quantités de données à la capacité des humains à comprendre le contenu numérique. Ceci est une solution ciblée pour les fausses nouvelles sur Facebook, compte tenu de son ampleur et de son interprétation subjective.
L'ensemble de données que nous compilons peut être utilisé pour entraîner l'IA. Mais nous souhaitons également que tous les utilisateurs de médias sociaux soient plus conscients de leurs propres préjugés, s’agissant de ce qu’ils qualifient de fausses nouvelles.
Les humains ont des préjugés, mais aussi des connaissances uniques
Pour éliminer les fausses nouvelles, demander à des employés de Facebook de prendre des décisions éditoriales controversées est problématique, comme l'a montré notre étude. En effet, la façon dont les gens perçoivent le contenu dépend de leurs antécédents culturels, de leurs idées politiques, de leurs préjugés et de leurs stéréotypes.
Facebook a employé des milliers de personnes pour la modération de contenu. Ces modérateurs passent huit à dix heures par jour à examiner des contenus explicites et violents tels que la pornographie, le terrorisme et les décapitations, afin de décider du contenu qu’il est acceptable pour les utilisateurs de voir.
Considérez-les comme des cyber concierges qui nettoient nos médias sociaux en supprimant les contenus inappropriés. Ils jouent un rôle essentiel dans la définition de ce avec quoi nous interagissons.
Une approche similaire pourrait être adaptée aux fausses informations, en demandant aux modérateurs de Facebook quels articles devraient être supprimés et lesquels devraient être autorisés.
Les systèmes d'IA pourraient le faire automatiquement à grande échelle en apprenant ce que sont les fausses nouvelles à partir d'exemples annotés manuellement. Mais même lorsque l'IA peut détecter un contenu "interdit", les modérateurs humains doivent signaler les contenus controversés ou subjectifs.
Un exemple célèbre est l'image de Napalm Girl.
La photographie primée au prix Pulitzer montre des enfants et des soldats en fuite lors de l'explosion d'une bombe au napalm pendant la guerre du Vietnam. L'image a été publiée sur Facebook en 2016 et supprimée, car elle montrait une fille nue de neuf ans, contrevenant aux normes officielles de la communauté Facebook.
Une manifestation communautaire significative a suivi, car l'image emblématique avait une valeur historique évidente, et Facebook a autorisé la photo à revenir sur sa plate-forme.
Utiliser le meilleur des cerveaux et des robots
Dans le contexte de la vérification des informations, le jugement humain peut être subjectif et biaisé sur la base des antécédents et des préjugés implicites d'une personne.
Dans notre recherche, nous visons à collecter plusieurs «étiquettes de vérité» pour la même information auprès de quelques milliers de modérateurs. Ces étiquettes indiquent le niveau de "falsification" d'un article de presse.
Plutôt que de simplement rassembler les étiquettes les plus populaires, nous souhaitons également enregistrer les antécédents des modérateurs et leurs jugements spécifiques pour suivre et expliquer les ambiguïtés et les controverses dans les réponses.
Nous compilerons les résultats pour générer un ensemble de données de haute qualité, ce qui pourrait nous aider à expliquer les cas de désaccord importants entre les modérateurs.
Actuellement, le contenu de Facebook est traité comme un fichier binaire: il est conforme aux normes ou non.
L'ensemble de données que nous compilons peut être utilisé pour former l'IA afin de mieux identifier les fausses nouvelles en lui indiquant quelles nouvelles sont controversées et quelles nouvelles sont tout à fait fausses. Les données peuvent également aider à évaluer l'efficacité de l'IA actuelle dans la détection de fausses nouvelles.
Pouvoir au peuple
Bien que les critères d'évaluation des systèmes d'IA capables de détecter des fausses informations soient significatifs, nous souhaitons aller encore plus loin.
Plutôt que de demander à AI ou à des experts de prendre des décisions concernant les informations fausses, nous devrions enseigner aux utilisateurs de médias sociaux comment identifier ces éléments par eux-mêmes. Nous pensons qu'une approche visant à favoriser la crédibilité de l'information en littératie est possible.
Dans nos recherches en cours, nous recueillons une vaste gamme de réponses d'utilisateurs pour identifier un contenu d'actualité crédible.
Bien que cela puisse nous aider à élaborer des programmes de formation à l'IA, cela nous permet également d'étudier le développement des compétences du modérateur humain dans la reconnaissance d'un contenu crédible, dans la mesure où il effectue de fausses tâches d'identification d'actualités.
Ainsi, nos recherches peuvent aider à concevoir des tâches ou des jeux en ligne destinés à former les utilisateurs de médias sociaux à la reconnaissance d'informations fiables.
Autres avenues
La question des fausses informations est abordée de différentes manières sur les plateformes en ligne.
Il est assez souvent supprimé par une approche ascendante, au cours de laquelle les utilisateurs signalent un contenu inapproprié, qui est ensuite examiné et supprimé par les employés de la plateforme.
L'approche de Facebook consiste à rétrograder un contenu non fiable plutôt que de le supprimer.
Dans chaque cas, la nécessité pour les personnes de prendre des décisions sur la pertinence du contenu demeure. Le travail des utilisateurs et des modérateurs est crucial, car il est nécessaire à l’être humain d’interpréter les directives et de décider de la valeur du contenu numérique, en particulier s’il est controversé.
Ce faisant, ils doivent essayer de dépasser les différences culturelles, les préjugés et les frontières.
Changement climatique: de simples directives peuvent ralentir la propagation de fausses nouvelles sur Facebook
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l'article original.
Citation:
L'intelligence artificielle n'est pas encore assez intelligente pour nous sauver de fausses nouvelles: les utilisateurs de Facebook (et leur parti pris) sont essentiels (23 septembre 2019)
récupéré le 23 septembre 2019
à partir de https://techxplore.com/news/2019-09-ai-isnt-smart-fake-news.html
Ce document est soumis au droit d'auteur. Mis à part toute utilisation équitable à des fins d’étude ou de recherche privée, aucun
partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire