Connectez-vous avec nous

Gadgets

L'intelligence artificielle a un problème de partialité de genre – il suffit de demander à Siri

Les stéréotypes sexistes jouent dans le monde de l'intelligence artificielle. Crédit: yavi / Shutterstock

Suggérez à l'assistant personnel virtuel de Samsung, Bixby "Parlons de sale", et la voix féminine répondra avec un accent mielleux: "Je ne veux pas me retrouver sur la liste vilaine du Père Noël."

Posez la même question à la voix masculine du programme et celui-ci répond: "J'ai lu que l'érosion des sols est un réel problème de terre."

En Afrique du Sud, où je vis et mène mes recherches sur les préjugés sexistes en intelligence artificielle, Samsung propose désormais Bixby de différentes manières, en fonction de la langue choisie. Pour l'anglais américain, il y a Julia, Stephanie, Lisa et John. Les voix de Julia, Lisa et Stephanie sont coquettes et enthousiastes. John est intelligent et franc.

Les assistants personnels virtuels, tels que Bixby, Alexa (Amazon), Siri (Apple) et Cortana (Microsoft), sont à la pointe de l'intelligence artificielle (AI) commercialisable. L'intelligence artificielle fait référence à l'utilisation de systèmes technologiques pour effectuer des tâches que les gens accomplissent habituellement.

Ils fonctionnent comme une application sur un périphérique intelligent, répondant aux commandes vocales via un traitement en langage naturel. Leur omniprésence dans le monde augmente rapidement. Un rapport récent de l'UNESCO a estimé que, dès l'année prochaine, nous aurons plus de conversations avec nos assistants personnels virtuels qu'avec nos conjoints.

Pourtant, comme je l'explique dans mes propres recherches avec Mme Nora Ni Loideain du Centre d'information sur les politiques et le droit de l'information de l'Université de Londres, ces technologies trahissent des préjugés sexistes essentiels.

Avec leurs noms féminins, leurs voix et leur flirt programmé, la conception des assistants personnels virtuels reproduit les stéréotypes discriminatoires des secrétaires féminines qui, selon le stéréotype de genre, sont souvent plus que la simple secrétaire de son patron.

Il renforce également le rôle de la femme en tant que secondaire et soumise aux hommes. Ces assistants d'IA opèrent sur la commande de leur utilisateur. Ils n'ont pas le droit de refuser ces commandes. Ils ne sont programmés que pour obéir. Sans doute, ils suscitent également des attentes quant à la façon dont les vraies femmes devraient se comporter.

L’objectif de ces assistants est également de libérer leurs utilisateurs des tâches ménagères telles que la prise de rendez-vous et l’achat d’articles en ligne. C'est problématique sur au moins deux fronts: cela suggère que l'utilisateur a plus de temps pour un travail soi-disant plus important. Deuxièmement, il fait une déclaration critique sur la valeur du type de travail de secrétariat effectué, d’abord par de vraies femmes et maintenant par des femmes numérisées, dans l’avenir numérique.

"Que portez-vous?"

L'utilisation de noms féminins, tels que Siri et Cortana, est l'une des manières les plus évidentes de mettre en évidence ces biais. Siri est un nom nordique qui signifie "la belle femme qui vous mène à la victoire".

Cortana tire son nom (ainsi que les éléments visuels et la voix) de la série de jeux Halo. Dans Halo, Cortana a été créé à partir d’un clone du cerveau d’une femme scientifique réputée mariée à un corps de femme transparent et hautement sexualisé. Elle fonctionne comme une aide fictive pour les joueurs grâce à son intelligence sans prétention et à sa forme hypnotique.

En plus de leurs voix féminines, tous les assistants personnels virtuels sur le marché aujourd'hui ont une voix féminine par défaut qui, comme Bixby, est programmée pour répondre à toutes sortes de questions et commentaires suggestifs. Ces questions incluent: "Que portes-tu?" La réponse de Siri est "Pourquoi devrais-je porter quoi que ce soit?"

Alexa, quant à elle, rigole: "Ils ne me font pas de vêtements"; et Cortana répond: "Juste un petit truc que j'ai découvert en ingénierie."

Biais et discrimination dans l'IA

Il est de plus en plus reconnu que les systèmes d'IA sont souvent biaisés, en particulier en ce qui concerne la race et le sexe. Par exemple, l’algorithme de recrutement récemment mis au point par Amazon pour trier les curriculum vitae en fonction des candidatures affiche des préjugés sexistes en déclassant les curriculum vitae contenant le mot «femmes» ou faisant référence aux collèges pour femmes. Comme l'algorithme a été entraîné sur des données historiques et sur le recrutement préférentiel d'hommes, il n'a finalement pas pu être corrigé et a dû être abandonné.

Comme le montrent les recherches, il existe un lien essentiel entre le développement de systèmes d'IA qui affichent des préjugés sexistes et le manque de femmes dans les équipes qui les conçoivent.

Mais on reconnaît moins la manière dont les produits d’IA intègrent des représentations stéréotypées du genre dans leur conception même. Pour AI Now, une institution de recherche de premier plan qui étudie l'impact social de l'IA, il existe un lien évident entre le secteur de l'IA dominé par les hommes et les systèmes et produits discriminatoires qu'il produit.

Le rôle des chercheurs est de rendre visibles ces liens et de montrer les liens critiques qui existent entre les représentations de la femme, qu’il s’agisse de produits culturels ou technologiques, et le traitement réservé à la femme dans le monde réel.

L'intelligence artificielle est la technologie de pointe de la prétendue quatrième révolution industrielle. Il fait référence aux avancées technologiques – de la biotechnologie à l'IA, en passant par le big data – qui redéfinissent rapidement le monde tel que nous le connaissons. L’Afrique du Sud continuant de s’engager dans les promesses et les pièges de ce qui précède, il deviendra de plus en plus important d’examiner et d’examiner la manière dont les technologies à l’origine de ces changements peuvent affecter les femmes.


Amène Siri et Alexa et laisse place à Bixby.


Fourni par
                                                                                                    La conversation


Cet article est republié de The Conversation sous une licence Creative Commons. Lire l'article original.La conversation "width =" 1 "height =" 1 "style =" border: none! Important; boîte-ombre: aucune! important; marge: 0! important; hauteur maximale: 1px! important; max-width: 1px! important; min-height: 1px! important; min-width: 1px! important; opacité: 0! important; contour: aucun! important; rembourrage: 0! important; texte-ombre: aucun! important

Citation:
                                                 L'intelligence artificielle a un problème de partialité liée au genre – il suffit de demander à Siri (23 septembre 2019)
                                                 récupéré le 25 septembre 2019
                                                 sur https://techxplore.com/news/2019-09-artificial-intelligence-gender-bias-problemjust.html

Ce document est soumis au droit d'auteur. Mis à part toute utilisation équitable à des fins d’étude ou de recherche privée, aucun
                                            partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.

Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES