Connectez-vous avec nous

Internet

Une étude montre que le biais sexiste de la recherche d’images « CEO » de Google n’a pas vraiment été corrigé.

Des chercheurs de l’université de Washington ont montré que les résultats de recherche d’images de quatre grands moteurs de recherche du monde entier, dont Google, reflètent un biais sexiste. La recherche d’une profession, telle que « PDG », donnait des résultats présentant un ratio de personnes cis-masculines et cis-féminines correspondant aux statistiques actuelles. Mais lorsque l’équipe a ajouté un autre terme de recherche – par exemple, « PDG États-Unis » – la recherche d’images a donné moins de photos de présentateurs cis-femmes. Crédit : Université de Washington

Nous utilisons la recherche d’images de Google pour nous aider à comprendre le monde qui nous entoure. Par exemple, une recherche sur une certaine profession, « chauffeur de camion » par exemple, devrait produire des images qui nous montrent un échantillon représentatif de personnes qui conduisent des camions pour gagner leur vie.

Mais en 2015, des chercheurs de l’Université de Washington (UW) ont constaté que lors de la recherche de diverses professions – y compris « PDG » – les femmes étaient nettement sous-représentées dans les résultats d’images, et que ces résultats peuvent changer la vision du monde des chercheurs. Depuis lors, Google a affirmé avoir corrigé ce problème.

Une autre équipe de l’UW a récemment enquêté sur la véracité de l’entreprise. Les chercheurs ont montré que pour quatre grands moteurs de recherche du monde entier, dont Google, ce biais n’est que partiellement corrigé, selon un article présenté en février à la conférence de l’AAAI sur l’intelligence artificielle. Une recherche portant sur une profession, telle que « PDG », donnait des résultats avec un ratio de personnes présentant des hommes cis et des femmes cis qui correspondait aux statistiques actuelles. Mais lorsque l’équipe a ajouté un autre terme de recherche, par exemple « PDG + États-Unis », la recherche d’images a donné moins de photos de personnes cis-femmes. Dans leur article, les chercheurs proposent trois solutions potentielles à ce problème.

« Mon laboratoire travaille depuis un certain temps sur la question du biais dans les résultats de recherche et nous nous demandions si ce biais dans la recherche d’images de PDG n’avait été corrigé qu’en surface », a déclaré l’auteur principal, Chirag Shah, professeur associé à l’UW Information School. Nous voulions montrer qu’il s’agit d’un problème qui peut être résolu systématiquement pour tous les termes de recherche, et non d’un problème qui doit être résolu par une approche de type « whack-a-mole », un problème à la fois. »

L’équipe a examiné les résultats de recherche d’images de Google ainsi que du moteur de recherche chinois Baidu, de Naver en Corée du Sud et de Yandex en Russie. Les chercheurs ont effectué une recherche d’images pour 10 professions courantes – dont PDG, biologiste, programmeur informatique et infirmière – avec et sans terme de recherche supplémentaire, tel que « États-Unis ».

« Il s’agit d’une approche commune pour étudier les systèmes d’apprentissage automatique », a déclaré l’auteur principal Yunhe Feng, un chercheur postdoctoral de l’UW à l’iSchool. « De la même manière que les gens font passer des crash-tests aux voitures pour s’assurer qu’elles sont sûres, les chercheurs en confidentialité et en sécurité essaient de défier les systèmes informatiques pour voir s’ils tiennent le coup. Ici, nous avons simplement modifié légèrement le terme de recherche. Nous ne nous attendions pas à voir des résultats aussi différents. »

Pour chaque recherche, l’équipe a recueilli les 200 meilleures images, puis a utilisé une combinaison de volontaires et de logiciels d’IA de détection du genre pour identifier chaque visage comme présentant un homme cis ou une femme cis.

L’une des limites de cette étude est qu’elle suppose que le genre est binaire, ont reconnu les chercheurs. Mais cela leur a permis de comparer leurs résultats aux données du Bureau américain des statistiques du travail pour chaque profession.

Les chercheurs étaient particulièrement curieux de voir comment le rapport entre les sexes changeait en fonction du nombre d’images qu’ils examinaient.

« Nous savons que les gens passent la plupart de leur temps sur la première page des résultats de recherche parce qu’ils veulent trouver une réponse très rapidement », a déclaré Feng. « Mais peut-être que si les gens faisaient défiler les résultats de la première page de recherche, ils commenceraient à voir plus de diversité dans les images. »

Lorsque l’équipe a ajouté « + États-Unis » aux recherches d’images Google, certaines professions présentaient des ratios de biais de genre plus importants que d’autres. L’observation d’un plus grand nombre d’images a parfois permis de résoudre ces préjugés, mais pas toujours.

Si les autres moteurs de recherche ont montré des différences pour des professions spécifiques, la tendance générale est restée la même : L’ajout d’un autre terme de recherche a modifié le rapport entre les sexes.

« Ce n’est pas seulement un problème de Google », a déclaré Shah. « Je ne veux pas donner l’impression que nous jouons une sorte de favoritisme envers les autres moteurs de recherche. Baidu, Naver et Yandex sont tous issus de pays différents, avec des cultures différentes. Ce problème semble être endémique. C’est un problème pour eux tous ».

L’équipe a conçu trois algorithmes pour résoudre systématiquement le problème. Le premier mélange les résultats de manière aléatoire.

« Ce dernier essaie de secouer les choses pour éviter que les résultats soient si homogènes au sommet », a déclaré Shah.

Les deux autres algorithmes ajoutent plus de stratégie au brassage des images. Le premier inclut le « score de pertinence » de l’image, que les moteurs de recherche attribuent en fonction de la pertinence d’un résultat par rapport à la requête de recherche. L’autre exige que le moteur de recherche connaisse les données du bureau des statistiques, puis l’algorithme mélange les résultats de recherche de sorte que les images les mieux classées suivent la tendance réelle.

Les chercheurs ont testé leurs algorithmes sur les ensembles de données d’images collectées à partir des recherches Google, Baidu, Naver et Yandex. Pour les professions présentant un rapport de biais important – par exemple, « biologiste + États-Unis » ou « PDG + États-Unis » – les trois algorithmes ont réussi à réduire le biais de genre dans les résultats de recherche. En revanche, pour les professions présentant un taux de biais plus faible – par exemple « conducteur de camion + États-Unis » – seul l’algorithme connaissant les statistiques réelles est parvenu à réduire le biais.

Bien que les algorithmes de l’équipe puissent réduire systématiquement les préjugés dans une variété de professions, le véritable objectif sera de voir ces types de réduction apparaître dans les recherches sur Google, Baidu, Naver et Yandex.

« Nous pouvons expliquer pourquoi et comment nos algorithmes fonctionnent », a déclaré Feng. « Mais le modèle d’IA derrière les moteurs de recherche est une boîte noire. L’objectif de ces moteurs de recherche n’est peut-être pas de présenter les informations de manière équitable. Ils sont peut-être plus intéressés par le fait que leurs utilisateurs s’engagent dans les résultats de recherche. »


Un nouvel outil Google permet aux mineurs de supprimer plus facilement les images d’eux-mêmes des résultats de recherche


Fourni par
Université de Washington

Citation:
Le biais sexiste de la recherche d’images « CEO » de Google n’a pas vraiment été corrigé : étude (2022, 16 février)
récupéré le 21 février 2022
à partir de https://techxplore.com/news/2022-02-google-ceo-image-gender-bias.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune
partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.


Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES