L’un des problèmes les plus difficiles pour Reddit, la première page autoproclamée d’Internet, consiste à déterminer ce qui doit et ne doit pas apparaître sur ses flux.
En ce qui concerne la modération de contenu, qui est devenue un problème de plus en plus médiatisé ces dernières années, Reddit opte pour une approche différente par rapport aux autres grandes plateformes sociales.
Contrairement à Facebook, par exemple, qui sous-traite une grande partie du travail à des fermes de modération, Reddit s’appuie en grande partie sur ses communautés (ou subreddits) pour s’autocontrôler. Les efforts des modérateurs bénévoles sont guidés par des règles définies par chaque subreddit individuel, mais aussi par un ensemble de valeurs rédigé et appliqué par Reddit lui-même.
L’entreprise a cependant été critiquée pour ce modèle, que certains ont interprété comme un laisser-faire et un manque de responsabilité. Mais Chris Slowe, Reddit CTO, dit qu’il s’agit d’une fausse description totale.
« Cela peut sembler une chose folle à dire sur Internet aujourd’hui, mais les humains en moyenne sont en fait assez bons. Si vous regardez Reddit à grande échelle, les gens sont créatifs, drôles, collaboratifs et derpy – toutes les choses qui font fonctionner la civilisation », a-t-il déclaré. TechRadar Pro.
« Notre approche sous-jacente est que nous voulons que les communautés établissent leurs propres cultures, politiques et systèmes philosophiques. Pour que ce modèle fonctionne, nous devons fournir des outils et des capacités pour faire face aux [antisocial] minorité. »
Sommaire
Une bête différente
Slowe a été le tout premier employé de Reddit, embauché en 2005 en tant qu’ingénieur après avoir loué deux chambres d’amis aux co-fondateurs Steve Huffman et Alexis Ohanian. Les trois s’étaient rencontrés lors de la première exécution du désormais tristement célèbre programme d’accélérateur Y Combinator, qui a laissé à Slowe de bons souvenirs, mais aussi un démarrage raté et du temps à remplir.
Bien qu’il ait pris une pause de Reddit entre 2010 et 2015, l’expérience de Slowe lui donne une perspective unique sur la croissance de l’entreprise et sur la façon dont les défis auxquels elle est confrontée ont changé au fil du temps.
Dans les premières années, dit-il, il s’agissait de développer l’infrastructure pour faire face à la croissance du trafic. Mais lors de son deuxième passage, de 2016 à aujourd’hui, l’accent s’est déplacé vers la confiance, la sécurité et la sécurité des utilisateurs.
« Nous fournissons aux utilisateurs des outils pour signaler le contenu qui enfreint les politiques du site ou les règles définies par les modérateurs, mais tout n’est pas signalé. Et dans certains cas, le rapport indique qu’il est trop tard », a-t-il expliqué.
« Quand je suis revenu en 2016, l’une de mes tâches principales consistait à déterminer précisément comment les communautés Reddit fonctionnent et à définir ce qui rend le site sain. Une fois que nous avons identifié les symptômes d’insalubrité, nous avons travaillé à partir de là.
Autocontrôle
Contrairement à d’autres plateformes sociales, Reddit a une approche à plusieurs niveaux de la modération de contenu, qui est conçue pour adhérer aussi étroitement que possible à l’éthique « communauté d’abord » de l’entreprise.
La forme la plus primitive de vérification du contenu est effectuée par les utilisateurs eux-mêmes, qui ont le pouvoir de voter pour les éléments qu’ils aiment et de voter pour ceux qu’ils n’aiment pas. Cependant, bien que ce processus stimule les messages populaires et écrase les messages impopulaires, la popularité n’est pas toujours une marque de bienséance.
Les mods communautaires agissent comme la deuxième ligne de défense et sont armés du pouvoir de supprimer les messages et d’interdire les utilisateurs pour avoir enfreint les directives ou la politique de contenu. La règle de subreddit la plus courante, selon Slowe, est essentiellement « ne soyez pas un imbécile ».
Le rendez-vous annuel de l’entreprise Rapport de transparence, qui décompose tout le contenu supprimé de Reddit chaque année, suggère que les mods sont responsables d’environ les deux tiers de toutes les suppressions de messages.
Pour détecter tout contenu nuisible manqué par les mods, il y a les administrateurs Reddit, qui sont directement employés par l’entreprise. Ces membres du personnel effectuent des contrôles ponctuels manuels, mais sont également armés d’outils technologiques pour aider à identifier les utilisateurs problématiques et contrôler les interactions individuelles qui se déroulent en privé.
« Nous utilisons un certain nombre de signaux pour faire ressortir les problèmes et établir si les utilisateurs individuels sont dignes de confiance et ont agi de bonne foi », a déclaré Slowe. « Le plus délicat, c’est que vous ne comprendrez jamais tout. Et c’est en partie parce que il sera toujours un peu gris et dépendant du contexte.
Lorsqu’on lui a demandé comment cette situation pourrait être améliorée, Slowe a expliqué qu’il est pris dans une position difficile ; tiraillé entre le désir de faire respecter la politique de l’entreprise axée sur la communauté et la connaissance qu’il existe des technologies à venir sur le marché qui pourraient aider à détecter un plus grand pourcentage d’abus.
Par exemple, Reddit commence déjà à utiliser des techniques avancées de traitement du langage naturel (NLP) pour évaluer plus précisément le sentiment des interactions entre les utilisateurs. Slowe a également indiqué la possibilité d’utiliser l’IA pour analyser les images publiées sur la plate-forme et a admis qu’une plus grande quantité d’actions de modération se produirait sans intervention humaine au fil du temps.
Cependant, il a également mis en garde contre la faillibilité de ces nouveaux systèmes, qui sont sujet aux préjugés et certainement capable d’erreur, et les défis qu’ils pourraient poser au modèle Reddit.
« C’est un peu terrifiant, en fait. Si nous parlons de cela comme d’un modèle d’application, c’est la même chose que de mettre des caméras littéralement partout et de compter sur le grand sur-esprit de la machine pour nous dire quand il y a un crime », a-t-il déclaré.
Bien que l’érection d’un panoptique technologique puisse limiter la quantité de matériel peu recommandable qui atterrit sur la plate-forme, cela obligerait finalement Reddit à mettre de côté sa philosophie de base : la communauté avant le contenu.
Quand les choses se corsent
La modération du contenu est un problème qu’aucun des géants des médias sociaux ne peut prétendre avoir résolu, comme en témoignent le débat autour des comptes de Donald Trump et l’interdiction de Parler des magasins d’applications. Reddit a également été impliqué dans ces conversations, prenant finalement la décision d’interdire le subreddit r/DonaldTrump.
Aussi puissant que puisse être le modèle axé sur la communauté, il existe un conflit important au cœur de l’approche de Reddit. L’entreprise aspire à donner à ses communautés une autonomie quasi-totale, mais est finalement obligée de prendre des décisions éditoriales sur l’endroit où tracer la ligne.
« Je ne veux pas être l’arbitre arbitraire et capricieux de quel contenu est correct et de ce qui ne l’est pas », nous a dit Slowe. « Mais en même temps, nous devons être en mesure d’appliquer un ensemble de [rules]. C’est une ligne très fine à parcourir.
Reddit essaie de garder sa politique de contenu aussi succincte que possible pour éliminer les failles et faciliter l’application, mais les révisions sont courantes. Par exemple, la pornographie de vengeance a été interdite sur la plate-forme en 2015 sous l’ex-PDG Ellen Pao. L’année dernière, l’entreprise a ajouté une clause interdisant la glorification de la violence.
« Être fidèle à nos valeurs signifie également réitérer nos valeurs, les réévaluer à mesure que nous découvrons de nouvelles façons de jouer avec le système et de repousser les limites », a expliqué Slowe.
« Lorsque nous apportons un changement qui implique de déplacer des communautés d’un côté à l’autre de la ligne, c’est la fin d’un long processus consistant à trouver des failles dans notre politique de contenu et à revenir en arrière à partir de là. »
Cependant, alors que la majorité conviendra que l’absence de vengeance pornographique est un élément positif sans réserve et que l’incitation à la violence a eu lieu sur r/The_Donald, les deux exemples prouvent que Reddit doit s’engager avec modération sur le même plan que Facebook, Twitter ou toute autre plateforme.
Lorsque des questions difficiles doivent être posées, en d’autres termes, Reddit ne fait plus confiance à ses communautés pour répondre par une réponse favorable.