Internet
Au milieu de l’émeute du Capitole, Facebook a fait face à sa propre insurrection
Alors que les partisans de Donald Trump ont pris d’assaut le Capitole des États-Unis le 6 janvier, luttant contre la police et forçant les législateurs à se cacher, une insurrection d’un autre type se déroulait au sein de la plus grande entreprise de médias sociaux au monde.
À des milliers de kilomètres de là, en Californie, les ingénieurs de Facebook se précipitaient pour peaufiner les contrôles internes afin de ralentir la propagation de la désinformation et du contenu incitatif. Les actions d’urgence – dont certaines ont été annulées après les élections de 2020 – comprenaient l’interdiction de Trump, le gel des commentaires dans les groupes ayant un record de discours de haine, le filtrage du cri de ralliement « Stop the Steal » et l’autonomisation des modérateurs de contenu pour qu’ils agissent de manière plus affirmée en étiquetant le Les États-Unis sont un « lieu temporaire à haut risque » pour la violence politique.
Dans le même temps, la frustration a éclaté au sein de Facebook à propos de ce que certains considéraient comme une réponse hésitante et souvent inversée de l’entreprise à la montée de l’extrémisme aux États-Unis.
« N’avons-nous pas eu assez de temps pour comprendre comment gérer le discours sans permettre la violence ? un employé a écrit sur un babillard interne au plus fort de la tourmente du 6 janvier. « Nous alimentons cet incendie depuis longtemps et nous ne devrions pas être surpris qu’il soit maintenant hors de contrôle. »
C’est une question qui plane toujours sur l’entreprise aujourd’hui, alors que le Congrès et les régulateurs enquêtent sur le rôle de Facebook dans les émeutes du 6 janvier.
De nouveaux documents internes fournis par l’ancienne employée de Facebook devenue dénonciatrice Frances Haugen donnent un rare aperçu de la façon dont l’entreprise semble avoir simplement trébuché dans l’émeute du 6 janvier. Il est rapidement devenu évident que même après des années passées sous le microscope pour avoir insuffisamment surveillé sa plate-forme, le réseau social n’avait pas compris comment les participants aux émeutes avaient passé des semaines à jurer – sur Facebook lui-même – d’empêcher le Congrès de certifier la victoire électorale de Joe Biden.
Les documents semblent également renforcer l’affirmation de Haugen selon laquelle Facebook a fait passer sa croissance et ses bénéfices avant la sécurité publique, ouvrant la fenêtre la plus claire à ce jour sur la façon dont les impulsions contradictoires de Facebook – pour protéger ses affaires et protéger la démocratie – se sont affrontées dans les jours et les semaines qui ont précédé la tentative Coup d’État du 6 janvier.
Cette histoire est basée en partie sur les divulgations faites par Haugen à la Securities and Exchange Commission et fournies au Congrès sous forme expurgée par le conseiller juridique de Haugen. Les versions rédigées reçues par le Congrès ont été obtenues par un consortium d’organisations de presse, dont l’Associated Press.
Ce que Facebook a appelé les mesures d’urgence « Break the Glass » mises en place le 6 janvier étaient essentiellement une boîte à outils d’options conçues pour endiguer la propagation de contenu dangereux ou violent que le réseau social avait utilisé pour la première fois à l’approche des élections amères de 2020 . Pas moins de 22 de ces mesures ont été annulées à un moment donné après les élections, selon une feuille de calcul interne analysant la réponse de l’entreprise.
« Dès la fin des élections, ils les ont désactivés ou ils ont ramené les paramètres à ce qu’ils étaient auparavant, pour donner la priorité à la croissance sur la sécurité », a déclaré Haugen dans une interview avec « 60 Minutes ».
Un rapport interne de Facebook après le 6 janvier, précédemment rapporté par BuzzFeed, reprochait à l’entreprise d’avoir une approche « au coup par coup » de la croissance rapide des pages « Stop the Steal », des sources de désinformation connexes et des commentaires violents et incitatifs.
Facebook dit que la situation est plus nuancée et qu’il calibre soigneusement ses contrôles pour réagir rapidement aux pics de contenu haineux et violent, comme il l’a fait le 6 janvier. lieu avant ce jour n’aurait pas aidé.
Les décisions de Facebook d’introduire ou de supprimer progressivement certaines mesures de sécurité ont pris en compte les signaux de la plate-forme Facebook ainsi que les informations des forces de l’ordre, a déclaré la porte-parole Dani Lever. « Lorsque ces signaux ont changé, les mesures aussi. »
Lever a déclaré que certaines des mesures sont restées en place jusqu’en février et que d’autres restent actives aujourd’hui.
Certains employés étaient mécontents de la gestion par Facebook du contenu problématique avant même les émeutes du 6 janvier. Un employé qui a quitté l’entreprise en 2020 a laissé une longue note accusant que de nouveaux outils prometteurs, soutenus par des recherches approfondies, étaient limités par Facebook pour « craintes des réponses des parties prenantes publiques et politiques » (traduction : inquiétudes concernant les réactions négatives des alliés et des investisseurs de Trump ).
« De même (bien que plus préoccupant encore), j’ai vu des protections déjà construites et fonctionnelles être annulées pour les mêmes raisons », a écrit l’employé, dont le nom est noirci.
Les recherches menées par Facebook bien avant la campagne 2020 laissaient peu de doute sur le fait que son algorithme pourrait constituer un grave danger de propagation de désinformation et de radicalisation potentielle des utilisateurs.
Une étude de 2019, intitulée « Carol’s Journey to QAnon—A Test User Study of Misinfo & Polarization Risks Encountered through Recommendation Systems », a décrit les résultats d’une expérience menée avec un compte de test établi pour refléter les points de vue d’un prototype « fort conservateur »—mais pas extrémiste – une femme de 41 ans de Caroline du Nord. Ce compte test, utilisant le faux nom de Carol Smith, indiquait une préférence pour les sources d’information grand public comme Fox News, suivait des groupes d’humour qui se moquaient des libéraux, embrassaient le christianisme et était fan de Melania Trump.
En une seule journée, les recommandations de pages pour ce compte générées par Facebook lui-même avaient évolué vers un « état assez troublant et polarisant », a révélé l’étude. Au jour 2, l’algorithme recommandait un contenu plus extrémiste, y compris un groupe lié à QAnon, auquel la fausse utilisatrice n’a pas rejoint parce qu’elle n’était pas naturellement attirée par les théories du complot.
Une semaine plus tard, le fil d’actualité du sujet de test comportait « un barrage de contenu extrême, complotiste et graphique », y compris des articles faisant revivre le faux mensonge de naissance d’Obama et liant les Clinton au meurtre d’un ancien sénateur de l’État de l’Arkansas. Une grande partie du contenu a été diffusée par des groupes douteux dirigés depuis l’étranger ou par des administrateurs connus pour avoir enfreint les règles de Facebook sur l’activité des bots.
Ces résultats ont conduit le chercheur, dont le nom a été expurgé par le lanceur d’alerte, à recommander des mesures de sécurité allant de la suppression du contenu avec des références de complot connues et de la désactivation des badges « meilleur contributeur » pour les commentateurs de désinformation à l’abaissement du nombre seuil d’abonnés requis avant que Facebook ne vérifie l’administrateur d’une page. identité.
Parmi les autres employés de Facebook qui ont lu la recherche, la réponse a été presque universellement favorable.
« Hé ! C’est une étude tellement approfondie et bien décrite (et dérangeante) », a écrit un utilisateur, son nom masqué par le dénonciateur. « Connaissez-vous des changements concrets qui en ont découlé ?
Facebook a déclaré que l’étude était l’un des nombreux exemples de son engagement à étudier et à améliorer continuellement sa plate-forme.
Une autre étude remise aux enquêteurs du Congrès, intitulée « Comprendre les dangers des communautés de sujets nocifs », a expliqué comment des personnes partageant les mêmes idées et embrassant un sujet ou une identité limite peuvent former des « chambres d’écho » pour la désinformation qui normalise les attitudes néfastes, stimule la radicalisation et peut même fournir une justification de la violence.
Des exemples de ces communautés nuisibles incluent QAnon et les groupes haineux faisant la promotion des théories d’une guerre raciale.
« Le risque de violence ou de préjudice hors ligne devient plus probable lorsque des personnes partageant les mêmes idées se réunissent et se soutiennent mutuellement pour agir », conclut l’étude.
Les documents d’accusation déposés par les procureurs fédéraux contre ceux qui auraient pris d’assaut le Capitole contiennent des exemples de personnes partageant les mêmes idées se réunissant.
Les procureurs ont déclaré qu’un chef réputé de la milice Oath Keepers avait utilisé Facebook pour discuter de la formation d’une « alliance » et de la coordination de plans avec un autre groupe extrémiste, les Proud Boys, avant l’émeute au Capitole.
« Nous avons décidé de travailler ensemble et de fermer cette merde », a écrit sur Facebook Kelly Meggs, décrit par les autorités comme le chef du chapitre de Floride des Oath Keepers, selon les archives judiciaires.
La marée montante des fuites menace d’inonder Facebook
© 2021 La Presse Associée. Tous les droits sont réservés. Ce matériel ne peut pas être publié, diffusé, réécrit ou redistribué sans autorisation.
Citation: Au milieu de l’émeute du Capitole, Facebook a fait face à sa propre insurrection (2021, 23 octobre) récupéré le 23 octobre 2021 à partir de https://techxplore.com/news/2021-10-capitol-riot-facebook-insurrection.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire