Connectez-vous avec nous

Internet

Élargir vos horizons de médias sociaux

Evangelos Papalexakis est professeur adjoint d’informatique et d’ingénierie au Marlan and Rosemary Bourns College of Engineering de l’UC Riverside. Ses recherches portent sur la science des données, le traitement du signal, l’apprentissage automatique et l’intelligence artificielle. L’un de ses projets en cours vise à développer un mécanisme automatisé de détection des fausses nouvelles pour les médias sociaux.

La plupart des gens savent maintenant que ce qu’ils voient sur des sites de médias sociaux comme Facebook a quelque chose à voir avec des algorithmes mystérieux. Pouvez-vous expliquer ce que sont les algorithmes en général?

Vous pouvez voir un algorithme comme un ensemble d’instructions qu’un ordinateur doit suivre pour résoudre un problème, un peu comme une recette où l’entrée est les ingrédients et la sortie est la nourriture. L’algorithme a des entrées, qui pourraient être des données, et des sorties, qui pourraient être la solution à un problème.

Un autre terme que nous voyons beaucoup est l’apprentissage automatique. Pouvez-vous expliquer ce que c’est?

Tom Mitchell, dans son manuel classique, définit l’apprentissage automatique comme l’étude d’algorithmes qui améliorent leurs performances sur une tâche particulière grâce à l’expérience. L’expérience fait généralement référence aux données dans ce cas.

Souvent, nous nous référons à un modèle d’apprentissage automatique comme le produit d’un algorithme «d’apprentissage» de machine learning dont le travail consiste à apprendre à résoudre la tâche particulière qui lui est assignée compte tenu des données, puis à distiller ces connaissances dans un modèle, ce qui peut être aussi simple qu’un ensemble de règles IF-THEN-ELSE, à quelque chose d’aussi compliqué qu’un réseau de neurones.

Après la formation, nous déployons le modèle d’apprentissage automatique et il suit ensuite un autre algorithme, généralement appelé algorithme « d’inférence » ou de « prédiction » ou de « recommandation » qui, en utilisant le modèle existant et étant donné un utilisateur particulier, produit le contenu, parfois dans un liste avec laquelle l’utilisateur est le plus susceptible de s’engager.

Comment les entreprises de médias sociaux utilisent-elles des modèles d’apprentissage automatique pour filtrer ce qui apparaît dans nos flux?

Dans ce cas particulier, la tâche consiste à déterminer ce qu’il faut montrer à un utilisateur. L’expérience correspond à l’ensemble de l’interaction / de l’engagement / de la création de contenu de l’utilisateur sur la plate-forme, et les performances peuvent être mesurées par le fait que l’utilisateur a apprécié et / ou engagé avec succès la recommandation (l’élément affiché dans le flux) ou non.

Netflix a été le pionnier de cette chose en lançant un concours qui avait cette tâche exacte à l’esprit et qui entraînait un prix monétaire. Dans la solution qui a remporté le concours, et essentiellement dans tout algorithme d’apprentissage automatique de recommandation, tout se résume à calculer une « représentation » d’un utilisateur et une « représentation » du contenu, puis à déterminer quel type de contenu, comme un film , un certain utilisateur va très probablement en profiter.

En termes simples, imaginez la représentation de l’utilisateur comme une feuille de calcul Excel dont les lignes sont des utilisateurs et les colonnes sont des genres de films différents et chaque cellule nous indique à quel point cet utilisateur «préfère» ce genre particulier. Si nous utilisons une représentation similaire pour les films, nous pouvons essentiellement voir quel utilisateur a une correspondance élevée avec quel film, dans cette représentation de «genre». La clé est maintenant d’identifier ces «genres» à partir de la riche quantité de données de la plate-forme. Les genres donnés par les studios de cinéma ne reflètent pas nécessairement le contexte dans lequel les gens les regardent, mais émergent des modèles des utilisateurs interagissant et consommant du contenu. De même, les plateformes de médias sociaux utilisent les données créées et partagées par un utilisateur et tous les types d’interactions que l’utilisateur a avec d’autres créateurs de contenu ou avec du contenu pour attribuer leurs propres «genres».

Les données changent la donne. Toutes les recherches en apprentissage automatique sont ouvertes et partagées publiquement à un rythme très rapide, tant du milieu universitaire que de l’industrie. Ce qui fait la différence, ce sont les données utilisées pour «former» les modèles d’apprentissage automatique. N’importe qui dans le monde est capable d’expérimenter et de bricoler avec les modèles les plus avancés utilisés, mais sans les mêmes données pour le former, et c’est vraiment ce qui fait la différence. Dans le cas des médias sociaux, nos comportements en ligne sont les données.

Comment les modèles de Facebook poussent-ils les gens vers des groupes, des pages et des individus qui partagent les mêmes intérêts, créant des chambres d’écho?

En général, un «j’aime» signifie un engagement positif. Par conséquent, cela devient un signal qui est introduit dans l’apprentissage du modèle et utilisé pour mettre à jour et affiner la représentation de l’utilisateur, c’est-à-dire l’ensemble de préférences que l’algorithme a appris pour cet utilisateur particulier.

Les modèles d’apprentissage automatique visent à déterminer quelle est la meilleure prochaine chose avec laquelle un utilisateur serait le plus susceptible de s’engager, par exemple, «j’aime» ou «attribuer une note de 5 étoiles».

Nous ne pouvons pas quantifier exactement l’effet de chaque type d’engagement, car cela dépend vraiment du modèle spécifique et de la manière dont il a été formé. Par exemple, «aimer» équivaut-il à «partager» un message? Est-ce que donner une note de deux étoiles est un signal plus fort que de regarder les 10 à 15 premières minutes d’un film, puis d’arrêter? Mais en général, il est logique de s’attendre à ce que plus nous nous engageons avec un type de contenu spécifique, comme des films humoristiques ou des images de chiens, plus nous signalons au modèle que c’est ce que nous aimons.

Étant donné que le modèle est formé avec cela comme objectif principal, il favorisera le contenu qui ressemble au contenu avec lequel l’utilisateur s’est déjà engagé, ce qui signifie que, dans le vaste océan de contenu partagé sur une plate-forme, il sera très probablement classé. autre contenu inférieur.

Que peuvent faire les gens pour influencer les modèles d’apprentissage automatique de Facebook afin de leur montrer un contenu plus diversifié, qu’il s’agisse de photos de dîner d’amis ou d’actualités nationales?

On ne sait pas comment cela peut être systématisé, car il n’y a aucun moyen de savoir exactement dans quelle mesure chaque engagement influence le modèle et dans quelle mesure cela dépend du type de contenu, comme les dernières nouvelles par rapport aux photos d’animaux de compagnie. Cela souligne la nécessité d’une transparence du modèle qui pourrait fournir un résumé lisible par l’homme de ce que le modèle pense être nos préférences et peut-être la capacité de les modifier. Les plateformes font parfois ce dernier en demandant directement si ce contenu est pertinent pour le moment, ce qu’elles ne peuvent évidemment pas faire tout le temps, sinon l’utilisateur serait naturellement ennuyé. Mais de bonnes façons d’être transparent sont maintenant une direction très importante dans la communauté de la recherche. Vous avez peut-être remarqué que Netflix, par exemple, dit parfois que « Parce que vous avez regardé XYZ, nous vous recommandons les films suivants ».

Un défi majeur dans le sens de la transparence ci-dessus est que les représentations apprises concernent généralement des «genres» qui ne sont pas nécessairement lisibles par l’homme ou du moins pas immédiatement perceptibles pour quelqu’un par une simple inspection.

Droite. Vous avez mentionné plus tôt que dans l’exemple des films, le genre donné par le studio de cinéma pourrait être différent du genre attribué par le modèle d’apprentissage automatique en fonction de la façon dont nous interagissons avec le contenu.

Un exemple de Netflix pourrait être un ensemble de films qui n’ont pas de fil conducteur apparent entre eux autre que le fait que les gens les regardent surtout ironiquement, comme « The Room ».

Ce n’est pas un genre facile à définir, mais extrêmement utile pour comprendre comment les utilisateurs réels apprécient le contenu, peut-être différemment de la façon dont leurs créateurs l’ont envisagé. Pour en revenir à l’analogie de la feuille de calcul, le fait que ces colonnes de la feuille Excel de la représentation apprise ne soient pas toujours intuitives, il est très difficile de fournir une explication ou une justification parfaitement compréhensible basée sur ces colonnes. Par exemple, parce que vous avez un score élevé dans cette catégorie, Facebook vous montre ce post, mais « cette catégorie » n’est pas facile à décrire avec des mots. Il est plus probable qu’il s’agisse de combinaisons de ces catégories, ce qui complique encore plus le tableau.

Cela ressemble à une façon de mettre une fissure dans une bulle de filtre est de diversifier la façon dont nous interagissons avec le contenu pour pousser le modèle dans d’autres directions?

Personnellement, je fais parfois tout mon possible pour identifier les sources de contenu que mon cercle social en ligne immédiat ne partagerait peut-être pas et n’engagerait pas avec elles afin de signaler au modèle que cela fait partie de ce que j’aimerais voir davantage.

Du point de vue de l’apprentissage automatique, nous aurions à définir des contraintes supplémentaires sur la façon de mesurer les performances de l’algorithme qui coderaient en quelque sorte la diversité du contenu. Il s’agit d’un problème de recherche très difficile, d’autant plus qu’il est difficile de quantifier cet objectif d’une manière unique.

Il y a beaucoup de recherches fascinantes qui parlent de diversification de la recommandation de contenu et d’éclatement de la bulle de filtre, et c’est, en fait, un problème de recherche très difficile. Un article de blog perspicace sur l’IA Facebook explique un peu comment cela est fait dans la fonction Explorer d’Instagram, où ils essaient de décourager très souvent d’afficher le contenu du même utilisateur afin de permettre à l’algorithme de récupérer le contenu d’autres comptes, ce qui, espérons-le, peut être un un peu plus diversifié.

Avez-vous des recommandations sur la façon dont les gens peuvent apprendre à reconnaître et à gérer leurs propres réactions et comportements en ligne afin qu’ils ne vivent pas dans une chambre d’écho?

Il est important d’intérioriser que sur toutes les plateformes qui classent leur contenu d’une manière ou d’une autre, ce qui nous est montré n’est qu’un petit sous-ensemble de ce qui existe. Se concentrer uniquement sur un sous-ensemble n’est pas nécessairement une mauvaise chose, car il y a tellement de contenu en compétition pour notre attention que cela épuiserait rapidement notre attention et notre capacité à apprendre ou à apprécier quoi que ce soit.

Je considère ces systèmes de classement / recommandation comme des assistants basés sur l’apprentissage automatique qui font de leur mieux pour comprendre ce que j’aime, mais qui peuvent aussi parfois avoir une vision tunnel et peut-être que je peux essayer de leur donner plus d’informations un peu plus délibérément. Cependant, il est très important de comprendre ce fait car si nous confondons ce que nous voyons dans notre flux avec ce que nous pensons être la totalité des choses partagées en ligne, cela peut absolument conduire à des bulles de filtre.

Afin de comprendre l’impact que nos actions en ligne dans une plate-forme ont sur le contenu qui nous est servi ensuite, c’est une expérience amusante à essayer et, par exemple, comme chaque image d’un chien mais pas de chat pendant quelques jours et observer qu’arrive-t-il aux messages que vous voyez après cela? Par la suite, après quelques jours d’observation de tout changement, recherchez explicitement des comptes qui partagent également des images de chats et aiment le contenu de chats et de chiens en quantité égale, puis observez comment les recommandations que vous obtenez changent.

Ce que nous contrôlons dans ce système, ce sont les données que nous créons et qui sont introduites dans le modèle d’apprentissage automatique. Donc, si nous sommes un peu plus précis sur la façon dont nous créons ces données, cela peut également aider à pousser le modèle à augmenter la diversité de nos préférences. Comment cela se traduit-il en pratique? Par exemple, en brisant la bulle de filtrage du contenu lié à l’actualité que nous voyons, il est judicieux de rechercher activement des organes d’information réputés qui couvrent le spectre idéologique et de les suivre, s’engageant ainsi avec leur contenu dans son ensemble, même si peut-être notre cercle social immédiat peut partager des choses appartenant à une partie de ce spectre.


L’IA peut prédire que les utilisateurs de Twitter sont susceptibles de diffuser de la désinformation avant de le faire


Fourni par University of California – Riverside

Citation: Comment faire éclater votre bulle: élargir vos horizons de médias sociaux (2021, 4 février) récupéré le 4 février 2021 sur https://techxplore.com/news/2021-02-broadening-social-media-horizons.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée.

ARTICLES POPULAIRES