Internet
Le système de diffusion d'annonces de Facebook est toujours discriminatoire selon la race, le sexe et l'âge
En réglant cinq poursuites différentes à la fois, Facebook plus tôt cette année a promis de changer la façon dont il gère les annonces de logement, d'emploi et de crédit diffusées sur sa plateforme. Les annonceurs ne pourraient plus cibler un public par sexe, race ou âge, afin de prévenir la discrimination des groupes légalement protégés.
Mais, de nouvelles recherches par une équipe d'informaticiens, y compris le professeur du nord-est Alan Mislove, montrent que l'algorithme utilisé par Facebook pour diffuser des publicités peut toujours biaiser vers des groupes démographiques spécifiques, malgré les changements apportés par la société.
"Pour être clair, nous n'accusons pas Facebook d'avoir violé le règlement", a déclaré Mislove, professeur d'informatique au Northeastern. "Ce que notre recherche montre plutôt, c'est un algorithme complexe à l'œuvre."
C'est parce que les algorithmes, selon Mislove, agissent beaucoup différemment dans la pratique que dans la théorie.
En théorie, la suppression de la capacité des annonceurs de cibler spécifiquement les personnes par race, sexe et âge devrait se traduire par des publicités publicitaires comprenant un mélange diversifié de personnes. Dans la pratique, l'algorithme de Facebook s'appuie sur une myriade d'autres caractéristiques de ses utilisateurs qui servent finalement de mandataires pour la race, le sexe et l'âge, dit Mislove.
Cet été, Facebook a présenté sa fonction Special Ad Audience, un outil de marketing destiné aux personnes faisant la promotion d'annonces offrant des opportunités de crédit, d'emploi ou de logement. Alors qu'une entreprise de vêtements pourrait vouloir faire de la publicité directement auprès des hommes ou des femmes, les domaines du crédit, de l'emploi et du logement bénéficient d'une protection juridique spéciale aux États-Unis pour prévenir la discrimination.
Mislove a travaillé avec une équipe de chercheurs qui comprenait également les candidats au doctorat du nord-est Piotr Sapiezynski et Avijit Ghosh, l'étudiant de premier cycle Levi Kaplan et un chercheur de l'organisation technologique à but non lucratif Upturn pour tester la nouvelle fonctionnalité par rapport à son prédécesseur, appelé Lookalike Audience>.
Les chercheurs ont utilisé les données des électeurs accessibles au public pour créer des publics qui étaient intentionnellement biaisés par la race, le sexe, l'âge et les opinions politiques, et les ont alimentés à la fois aux outils de publicité nouveaux et existants pour tester si l'algorithme correspondant reproduirait chaque biais.
Les résultats ont été frappants: les audiences Lookalike et Special Ad ont reproduit les biais démographiques.
Dans une déclaration à ProPublica, le porte-parole de Facebook Joe Osborne a déclaré: "Nous sommes allés au-delà des autres pour aider à prévenir la discrimination dans les annonces en restreignant le ciblage et en ajoutant la transparence. Un annonceur déterminé à discriminer les gens peut le faire sur n'importe quel support en ligne ou hors ligne. aujourd'hui, c'est pourquoi des lois existent… Nous sommes la seule plateforme de médias numériques à apporter des changements aussi significatifs dans les publicités et nous sommes fiers de nos progrès. "
Mislove dit que les résultats illustrent la tâche difficile d'assurer l'équité dans les algorithmes.
"Dans la pratique, un algorithme reçoit des millions d'entrées, chacune étant corrélée d'une autre manière à ces fonctionnalités protégées", explique Mislove.
Des informations telles que l'endroit où vous êtes allé à l'université, où vous vivez, les pages que vous avez «aimées» sur Facebook, et plus peuvent servir par inadvertance d'indicateurs sur votre race, votre sexe et votre âge – et les algorithmes conçus pour optimiser les résultats peuvent s'appuyer sur ces informations pour déterminer qui est le plus susceptible de cliquer sur une publicité.
"Les algorithmes s'en moquent", déclare Mislove. "Ils ont un objectif spécifique, et ils vont utiliser la combinaison de fonctionnalités qui permettra d'atteindre cet objectif. Peu importe pour eux que cela signifie qu'ils ne diffusent des annonces pour des emplois technologiques qu'aux hommes blancs entre les 18 et 24 ans. "
C'est un problème complexe, mais urgent, dit Mislove, car les algorithmes sous-tendent de plus en plus nos activités quotidiennes. Les algorithmes sont utilisés pour aider à prendre des décisions concernant les soins de santé, la solvabilité, l'emploi, les condamnations criminelles, les itinéraires, la musique que vous écoutez et un éventail étourdissant d'autres interactions quotidiennes.
Tous les acteurs de ces domaines "veulent l'efficacité des algorithmes, mais tout le monde ne réfléchit pas aux moyens de se tromper", explique Mislove.
Lorsque les choses tournent mal, la solution est souvent très complexe.
"C'est très difficile en ce moment, dans le sens où les identités protégées [against which discrimination can occur] vraiment imprégner notre société ", dit Mislove." Cela va être beaucoup plus difficile et beaucoup plus subtil que de simplement supprimer certaines fonctionnalités au départ. "
Voici comment le système de diffusion d'annonces de Facebook élargit encore plus le fossé politique américain
Algorithmes qui «ne voient pas la couleur»: comparaison des biais dans des publicités similaires et spéciales: sapiezynski.com/papers/sapiezy… ki2019algorithms.pdf
Citation:
Le système de diffusion des publicités de Facebook fait toujours la distinction selon la race, le sexe et l'âge (19 décembre 2019)
récupéré le 20 décembre 2019
depuis https://techxplore.com/news/2019-12-facebook-ad-delivery-discriminates-gender.html
Ce document est soumis au droit d'auteur. Hormis toute utilisation équitable aux fins d'études ou de recherches privées, aucune
une partie peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Sommaire