Connectez-vous avec nous

Internet

Facebook et Twitter devraient-ils revoir vos publications avant leur publication?

Les réseaux sociaux sont accusés de permettre des discours de haine et de désinformation qui contribuent à la violence, y compris l’attaque du 6 janvier contre le Capitole américain. Crédit: Matthew Modoono / Northeastern University

Le jour vient où vos publications sur les réseaux sociaux peuvent passer par des points de contrôle avant que les messages ne soient rendus publics.

Toutes vos publications sur Facebook, Twitter et d’autres plateformes sociales peuvent être instantanément examinées par un filtre d’intelligence artificielle qui élimine les discours de haine et la désinformation. Certains messages qui ont été signalés par l’intelligence artificielle peuvent ensuite être examinés par un superviseur humain.

Telle est la recommandation d’Oussama Fayyad, directeur exécutif de l’Institut d’Intelligence Artificielle Expérientielle du Nord-Est, en réponse au désir de plus en plus pressant de surveillance des médias sociaux.

Fayyad pense que les filtres sur les réseaux sociaux sont nécessaires car les plates-formes ont grandi et évolué plus vite qu’elles ne peuvent être réglementées – ce qui fait que les réseaux sociaux sont désormais accusés de permettre le discours de haine et la désinformation qui contribuent à la violence, y compris l’attaque du 6 janvier contre le Capitole des États-Unis.

«Les médias sociaux doivent passer par un certain obstacle, principalement algorithmique et automatisé, mais correctement complété par la bonne intervention humaine», déclare Fayyad, un leader de l’intelligence artificielle depuis trois décennies qui a fondé Open Insights, Yahoo! Research Labs, Data Mining chez Microsoft et le groupe Machine Learning Systems du Jet Propulsion Laboratory de la NASA. «Le problème de la désinformation est difficile mais pas impossible.

«Nous savons que certaines choses s’inscrivent dans cette zone d’incertitude où nous avons encore besoin de jugement humain», dit-il. «Avec une boucle de rétroaction pertinente qui exploite de manière appropriée le jugement humain, plus nous traitons ces problèmes par une intervention humaine, plus le système apprend – et plus la technologie devient intelligente. « 

Facebook a développé des outils d’intelligence artificielle pour éliminer les «mauvaises activités», a déclaré Mark Zuckerberg, directeur général du géant des médias sociaux, dans un témoignage au Congrès dès 2018. Mais les plus grands canaux sociaux – y compris Facebook, Twitter et Instagram … S’engager à apporter des changements globaux pour étouffer les discours de haine?

Fayyad propose un média social équivalent au délai de sept secondes que les réseaux de télévision utilisent pour couvrir les sports et autres événements en direct. Si un artiste utilise des grossièretés, le délai permet aux censeurs de faire taire le langage grossier avant qu’il ne puisse être diffusé dans les foyers.

«Les entreprises de médias sociaux ont accompli leur mission de transformer la façon dont nous communiquons», dit Fayyad. «Nous devons nous rappeler que toutes ces entreprises sont assez récentes et que nous n’avons pas eu le temps de réfléchir aux problèmes en tant que société.

«C’est un environnement dans lequel quelque chose comme les médias sociaux peut émerger et devenir omniprésent dans les deux ou trois ans», dit Fayyad. « Nous n’avons jamais vu cela dans l’histoire de l’humanité auparavant. Nous avons besoin d’une nouvelle façon de penser la réglementation, ce qu’elle signifie et la rapidité avec laquelle elle doit évoluer. »

Les efforts naissants des plates-formes pour développer des filtres sont prometteurs, déclare Christo Wilson, professeur agrégé d’informatique à Northeastern. Il existe un certain nombre de façons d’éliminer les mauvais comportements: Reddit rappelle aux utilisateurs qu’ils sont responsables des directives de la communauté, note Wilson, ce qui réduit les conflits, les discours de haine et la désinformation.

Wilson ajoute que les grandes entreprises de médias sociaux ont montré leur capacité à détecter les violations du droit d’auteur et la propagande terroriste.

«Les plates-formes sont en fait assez bonnes pour attraper ce genre de choses, car elles sont très motivées pour le faire», déclare Wilson, qui dirige également le programme de licence de Northeastern en cybersécurité. « Ce n’est donc pas comme s’ils ne pouvaient pas faire de modération de contenu. »

Les professeurs du Nord-Est disent que l’objectif de limiter les mauvais acteurs nécessitera un minimum de trois étapes:

La réglementation gouvernementale

Il existe un soutien bipartisan aux lois visant à limiter le pouvoir des plus grandes plates-formes.

Wilson fait valoir que les entreprises de médias sociaux ne peuvent être invitées à établir des normes, à se contrôler elles-mêmes ou à assumer l’entière responsabilité d’agir dans le meilleur intérêt de la société lorsque ces mesures peuvent affecter les bénéfices.

«À un moment donné, ils devront décider de ce qui est hors de propos et de la manière dont les acteurs privés devraient y remédier», dit Wilson à propos des régulateurs gouvernementaux. « Et je suis sûr que, immédiatement, quelqu’un va poursuivre et prendre [the regulations] à la Cour suprême. Peut-être que cela échouera, mais nous devons encore essayer. « 

Fayyad pense qu’une réglementation complète comprendra de lourdes amendes gouvernementales pour les plates-formes qui permettent le discours de haine et la désinformation. Ces sanctions créeront des incitations supplémentaires à investir dans la modération et la technologie nécessaires du contenu.

Développement de l’intelligence artificielle

L’évolution des moteurs de recherche en fournit un exemple utile.

«C’est exactement ainsi que les moteurs de recherche populaires, y compris Google, ont émergé», explique Fayyad. «Ils ont commencé avec un algorithme de base, puis ils ont eu besoin de beaucoup de commentaires avec littéralement des dizaines de milliers de rédacteurs examinant les résultats de recherche. En 2000, cela semblait probablement impossible: les moteurs de recherche étaient loin d’être aussi bons, le problème était trop difficile, le Web se développait rapidement.

« Il est assez étonnant de voir jusqu’où la technologie de recherche est arrivée, simplement en incorporant cette boucle de rétroaction et cette capacité à capturer les apprentissages et à s’améliorer continuellement au fil du temps », déclare Fayyad. « J’espère donc que la technologie pourra vous aider. La surveillance intelligente n’est pas un problème impossible. »

Inclure les humains dans la boucle

La réglementation aidera à définir le rôle de la surveillance humaine chaque fois qu’un message est signalé par l’intelligence artificielle.

«Que vous refusiez de l’héberger entièrement ou qu’il soit soumis à un examen humain, il y a un tas de problèmes normatifs», dit Wilson. « Et puis, il y aura également des problèmes avec l’examen humain. Mais si nous acceptons que les réseaux sociaux et les médias sociaux vont être énormes, nous devons avoir des systèmes de modération à cette échelle – et il est indéniable que l’IA et l’apprentissage automatique vont faites partie de cela. « 

Wilson dit que le rôle de l’examen humain peut dépendre d’une nouvelle perspective sur les plates-formes et leur rôle dans la société.

«Lorsque les plates-formes se décrivent, elles ne parlent pas de modération de contenu», dit Wilson. « Ils parlent d’être une communauté ouverte. Et cela crée une attente selon laquelle les gens peuvent faire tout ce qu’ils veulent. Ils doivent donc reconnaître plus fortement leur rôle dans l’élaboration du discours. »

Wilson pense que les dommages causés par les mauvaises intentions peuvent être encore limités si les grandes plates-formes sont décomposées en canaux plus petits qui ne pourront plus influencer de grandes populations.

« La capacité de se propager [dangerous] », explique Wilson.« C’est une des raisons pour lesquelles je privilégie également les recours antitrust: les petites plateformes ont un peu plus de latitude pour faire du mal ou ne pas bien modérer, mais il y a moins de dommages collatéraux. « 

Fayyad dit que la plupart des utilisateurs ne remarqueront pas les nouvelles mesures.

«On espère que 90 à 95% des messages ne devraient pas être bloqués et ne devraient avoir aucune intervention», dit Fayyad, qui espère que le pourcentage relativement faible de contenu préjudiciable facilitera la capture.

Le développement de la technologie coûtera cher, reconnaît Fayyad. Mais il pense que cela finira par s’autofinancer.

«Vous créez de la valeur économique», dit Fayyad. « Les gens auront tendance à utiliser les médias sociaux en lesquels ils ont confiance et dont ils savent qu’ils seront en sécurité. Et cela vaudra quelque chose. »


Facebook va étiqueter les publications de vaccins pour lutter contre COVID-19 misinfo


Fourni par Northeastern University

Citation: Facebook et Twitter devraient-ils revoir vos publications avant leur publication? (2021, 20 avril) récupéré le 20 avril 2021 sur https://techxplore.com/news/2021-04-facebook-twitter-theyre-published.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES