Internet
Facebook utilise l’IA pour endiguer les messages dangereux et faux
Facebook a fait l’objet de vives critiques au cours de l’année écoulée de la part de personnes qui affirment que l’entreprise ne fait pas assez pour endiguer les discours de haine, le harcèlement en ligne et la propagation de fausses nouvelles.
Pour être juste, la tâche de contrôler les activités de 1,62 milliard d’utilisateurs quotidiens générant 4 pétaoctets de données, dont 350 millions de photos, par jour n’est pas une mince affaire. Ce n’est pas facile d’être la plus grande plateforme sociale au monde.
Pourtant, la société a été critiquée pour avoir permis à des dizaines de groupes alimentés par la haine de diffuser des messages offensants et menaçants et pour avoir permis à des groupes de théorie du complot d’extrême droite tels que QAnon de répandre librement de fausses allégations politiques. Des analyses académiques et gouvernementales de l’élection présidentielle de 2016 ont mis au jour des preuves d’ingérence massive d’acteurs nationaux et étrangers, et il semble que des efforts similaires aient été entrepris lors des élections de 2020.
Facebook emploie 15 000 modérateurs de contenu pour examiner les rapports de mauvaise conduite allant du subterfuge politique au harcèlement en passant par les menaces terroristes et l’exploitation des enfants. Ils ont généralement abordé les rapports de manière chronologique, permettant souvent à des allégations plus graves de rester sans réponse pendant des jours tandis que des problèmes moins importants étaient examinés.
Vendredi, Facebook a annoncé qu’il intégrerait l’apprentissage automatique dans le processus de modération. Il utilisera des algorithmes pour détecter les problèmes les plus graves et les attribuer à des modérateurs humains. Les modérateurs de logiciels continueront de gérer les abus de niveau inférieur tels que la violation du droit d’auteur et le spam.
Facebook dit qu’il évaluera les publications problématiques en fonction de trois critères: la viralité, la gravité et la probabilité qu’ils enfreignent les règles. Un message d’obscénité menaçant la violence sur le site de troubles raciaux, par exemple, se verrait accorder la priorité absolue, soit supprimé automatiquement par machine, soit assigné à un modérateur pour une évaluation et une action immédiates.
« Toutes les violations de contenu … font toujours l’objet d’un examen humain substantiel », a déclaré Ryan Barnes, chef de produit de l’équipe d’intégrité communautaire de Facebook. « Nous utiliserons ce système pour mieux hiérarchiser le contenu. Nous prévoyons d’utiliser plus d’automatisation lorsque la violation du contenu est moins grave, surtout si le contenu n’est pas viral ou s’il est … rapidement partagé par un grand nombre de personnes. »
Facebook a été accusé d’avoir mal géré des comptes lors de récents troubles très médiatisés. Dans un cas, la société a été poursuivie après des tirs meurtriers par des justiciers qui sont descendus sur Kenosha, Wisconsin, à la suite de manifestations contre des policiers qui ont gravement blessé un homme noir après avoir tiré quatre coups de feu dans le dos lors d’une arrestation. Le procès allègue que Facebook n’a pas supprimé les pages des groupes haineux impliqués dans les fusillades de justiciers.
Au cours de la pandémie de l’année dernière, une étude menée par une organisation à but non lucratif a révélé 3,8 milliards de vues sur Facebook de contenu trompeur lié au COVID-19.
Parfois, les critiques sont suscitées par des modérateurs Facebook trop prudents. En juin dernier, le journal The Guardian s’est plaint que les lecteurs qui tentaient de faire circuler une photo historique qu’il a publiée ont été bloqués et ont émis des avertissements par Facebook. L’image d’hommes aborigènes presque nus enchaînés en Australie-Occidentale, prise dans les années 1890, a été publiée en réponse au démenti du Premier ministre australien Scott Morrison selon lequel son pays ne s’était jamais engagé dans l’esclavage. Morrison a rétracté ses commentaires après la publication de l’article et de la photo. Facebook s’est par la suite excusé d’avoir catégorisé à tort la photo comme une nudité inappropriée.
Les responsables de Facebook affirment que l’application de l’apprentissage automatique fait partie d’un effort continu visant à arrêter la diffusion d’informations dangereuses, offensantes et trompeuses tout en garantissant que les publications légitimes ne sont pas censurées.
Un exemple des défis auxquels Facebook est confronté est la création virtuelle du jour au lendemain d’un groupe de protestation massif contestant le décompte des élections de 2020. Un groupe Facebook exigeant un recomptage a rassemblé 400 000 membres en quelques jours seulement. Facebook n’a pas bloqué la page.
S’il n’y a rien d’illégal à demander un recomptage, une vague de désinformation concernant des abus de vote présumés – des accusations qui ont été catégoriquement rejetées par les responsables des 50 États et par les républicains ainsi que les démocrates la semaine dernière – est un rappel troublant du potentiel. de fausses informations pour façonner les opinions politiques.
« Le système consiste à marier l’IA et des critiques humains pour faire moins d’erreurs totales », a déclaré Chris Palow, membre de l’équipe Intégrité de Facebook. « L’IA ne sera jamais parfaite. »
Facebook pour freiner les groupes privés répandant la haine et la désinformation
www.theverge.com/2020/11/13/21… cebook-ai-moderation
© 2020 Réseau Science X
Citation: Facebook utilise l’IA pour endiguer les messages dangereux et faux (2020, 14 novembre) récupéré le 14 novembre 2020 sur https://techxplore.com/news/2020-11-facebook-ai-stem-dangerous-false.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire