Connectez-vous avec nous

Internet

Le problème avec Alexa: quelle est la solution pour les assistants vocaux sexistes?

Si vous avez un haut-parleur intelligent chez vous, vous interagissez probablement assez régulièrement avec un assistant vocal compatible avec l'IA – et il est probable que vous parlez à ce qui ressemble à une femme.

Votre assistant vocal a peut-être même reçu un nom féminin ou féminin, comme Alexa, Cortana ou Siri, selon la marque à laquelle vous avez acheté votre enceinte intelligente. Bien sûr, certains de ces assistants vocaux peuvent être configurés pour avoir une voix parlante, y compris Google Assistant et Siri, mais la plupart des utilisateurs de haut-parleurs intelligents interagissent avec des femmes virtuelles.

Cela n’apparaît peut-être pas comme un problème, mais l’assimilation de femmes à des assistants vocaux par la société pourrait avoir des conséquences sociales inquiétantes.

Une voix féminine est le choix par défaut des assistants intelligents, y compris Alexa sur Amazon Echo.

(Crédit image: Juan Ci / Shutterstock.com)

En mai 2019, un rapport novateur de l'UNESCO indiquait que l'utilisation par défaut d'assistants vocaux aux sonorités féminines dans nos gadgets et smartphones intelligents pour la maison perpétuait des attitudes sexistes à l'égard des femmes.

Le rapport, intitulé "Blush si possible", tire son nom de l'ancienne réponse par défaut de Siri, qualifiée de "salope" par les utilisateurs – et critique le fait que Siri d'Apple, Amazon Alexa, Google Assistant et Cortana de Microsoft soient " exclusivement féminin ou féminin par défaut, à la fois de nom et de son de voix ".

Sympathique et agréable

Alors, pourquoi les assistants vocaux ressemblent-ils à des femmes? Julia Kanouse, PDG de la Illinois Technology Association, explique que les entreprises derrière ces assistants vocaux ont basé leurs choix sur les commentaires des consommateurs.

Elle explique: «Les recherches montrent que les femmes ont tendance à mieux faire entendre la voix des femmes et que, dès leur plus jeune âge, nous préférons écouter ces voix».

En effet, dans une interview avec Interne du milieu des affairesDaniel Rausch, responsable de la division Smart Home d’Amazon, a expliqué que son équipe "a mené des recherches et a constaté que la voix d’une femme était plus compréhensive".

Jusqu'à présent, si plausible – et comme le concède Kanouse, l'utilisation d'assistants vocaux aux sonorités féminines est clairement fondée sur la recherche.

Amazon Echo Dot

Des recherches ont montré que, dès le plus jeune âge, les voix féminines sont plus compréhensives que les voix masculines.

(Crédit image: Amazon)

Cependant, les choix faits par les créateurs d'assistants vocaux pourraient avoir de lourdes conséquences pour les femmes à la maison et sur leur lieu de travail.

«Le recours à des assistants vocaux féminins peut renforcer le stéréotype selon lequel nous préférons dire à une femme quoi faire, plutôt qu'à un homme», déclare Kanouse.

«Ce n’est que récemment que nous avons commencé à voir les hommes occuper des postes traditionnellement considérés comme des femmes et, inversement, voir les femmes se battre pour que ces rôles (tels que les agents de bord, les infirmières, les assistants juridiques, les administrateurs exécutifs) soient considérés comme plus que simplement un assistant'."

Selon l'UNESCO, ces progrès pourraient être potentiellement annulés par la prolifération d'assistantes vocales. Son rapport affirme que l'utilisation par défaut d'assistants vocaux à sonorité féminine indique aux utilisateurs que les femmes sont des "aides obligeantes, dociles et désireuses de plaire, disponibles en appuyant simplement sur un bouton ou avec une commande vocale directe comme" hey " ou 'OK' ".

Il est également inquiétant de constater que ces assistants vocaux n’ont «aucun pouvoir d’agence au-delà de ce que le commandant leur demande» et répondent aux requêtes «sans se préoccuper de rien». [the user’s] ton ou hostilité ". Ce sont peut-être des traits souhaitables dans un assistant vocal en intelligence artificielle, mais que se passerait-il si notre façon de parler à Alexa et Siri finissait par influencer la façon dont nous parlons aux femmes dans notre vie quotidienne?

pas cher google home mini deals prix soldes

Les chercheurs disent que l'utilisation de voix principalement féminines dans des enceintes intelligentes peut alimenter des biais subconscients

(Crédit image: Google)

L’une des principales critiques formulées par l’UNESCO à l’encontre d’Amazon, Google, Apple et Microsoft, c’est que la nature docile de nos assistants vocaux a pour effet involontaire de renforcer "les préjugés sexistes généralement admis selon lesquels les femmes sont soumises et tolèrent un traitement médiocre".

Cette soumission est particulièrement inquiétante lorsque ces assistants vocaux à la voix féminine donnent "des réponses déformantes, ternes ou excuses au harcèlement sexuel verbal".

Bien que Kanouse ne pense pas que cela ait conduit à des cas manifestes de discrimination sexuelle, elle pense que cela crée «un niveau de partialité inconsciente», ajoutant que «la prévalence d'assistantes vocales féminines peut alimenter les préjugés subconscients à l'égard des femmes au travail et à la maison. rendant plus difficile pour les femmes la tâche de surmonter ces obstacles ».

Les assistants vocaux doivent-ils être neutres?

Une solution pourrait être de rendre les assistants vocaux neutres en matière de genre – et c’est quelque chose de tout à fait possible, comme l’ont démontré les responsables de Q, premier assistant vocal mondial neutre.

Parler à Radio Nationale PubliqueJulia Carpenter, experte du comportement humain et des technologies émergentes qui a travaillé sur le projet, a expliqué que l'un des objectifs de l'équipe était de «contribuer à une conversation mondiale sur le genre, le genre, la technologie et l'éthique, et sur la manière d'être inclusif. pour les personnes qui s'identifient de toutes sortes de façons ».

Pour créer la voix de Q, l’équipe a enregistré «des dizaines de personnes», y compris celles qui s’identifient comme hommes, femmes, transgenres et non binaires, bien qu’en fin de compte elles n’aient choisi qu’une seule voix et l’aient modifiée jusqu’à ce que cela ne sonne plus comme un homme. ni femelle.

Vous pouvez entendre le son de Q dans la vidéo ci-dessous.

Le résultat, bien que peut-être un peu plus synthétique que Alexa ou Siri, est un assistant vocal vraiment inclusif pour tout le monde – et l’objectif est de convaincre les géants de la technologie d’adopter Q comme troisième option pour leurs assistants.

Malheureusement, cela n’est pas probable – après tout, les marques comme Apple, Google et Amazon sont notoirement rigides en ce qui concerne la conception de leurs produits, et nous ne pouvons pas les voir accepter de parler avec la même voix que leurs rivaux.

La diversité est la clé

Ainsi, au lieu de rendre les assistants vocaux homogènes, la réponse serait-elle de les rendre super diversifiés?

Cette diversité ne doit pas non plus être centrée sur le genre; pourquoi nos assistants vocaux ne peuvent-ils pas avoir des accents régionaux? Pourquoi ne pourraient-ils pas paraître jeunes ou vieux, utiliser un argot ou un pidgin anglais?

La nouvelle que le BBC travaille sur un assistant vocal appelé Beeb, qui comprendra tous les divers accents régionaux du Royaume-Uni, a nourri l'espoir qu'il parlera également avec certains de ces accents.

Dr Matthew Aylett, directeur scientifique de la société de technologie de la parole Cereproc, pense que cela pourrait différencier Beeb des autres assistants vocaux du marché.

"Aucune autre organisation ne peut se vanter de la résonance et de l'importance de la voix comparée à la BBC", a-t-il déclaré, expliquant que choisir une voix synthétique pour représenter l'organisation est "un grand défi".

Le nombre relativement faible de femmes travaillant dans les domaines de la technologie signifie qu'elles participent moins à la conception des assistants vocaux.

Le nombre relativement faible de femmes travaillant dans les domaines de la technologie signifie qu'elles participent moins à la conception des assistants vocaux.

(Crédit image: Shutterstock.com)

À propos de marques comme Apple, Google et Amazon, il explique que «dans de nombreux cas, les décideurs choisissent une voix féminine par défaut, neutre et bien parlée, sans même considérer qu'il s'agit d'une décision de conception majeure».

Et la BBC pourrait être dans la position idéale pour contester cela. En encourageant la participation de son vaste public, Aylett pense que l'utilisation d'une voix diverse pour Beeb «pourrait donner lieu à de nouvelles perspectives révolutionnaires en matière d'interaction vocale».

Aylett pense que la BBC pourrait même faire appel à ce public pour sélectionner les présentateurs les plus appréciés de la BBC et créer une voix fusionnée à partir des résultats – imaginez à quel point un hybride David Attenborough / Joanna Lumley pourrait être apaisant.

Cependant, Aylett ne pense pas que les développeurs mondiaux d'assistants vocaux soutiendront la diversité tierce, comme celle de la BBC, ou soient «suffisamment courageux pour offrir beaucoup de diversité eux-mêmes».

Pourquoi? Eh bien, les équipes derrière nos assistants de voix les plus populaires ne sont pas aussi diverses.

Les femmes à l'avant

Selon l’UNESCO, le problème du sexisme d’Alexa est en grande partie dû au manque de femmes dans la salle lorsque les entreprises de technologie conçoivent leurs assistants vocaux.

C'est un problème qui concerne l'ensemble du secteur, avec seulement 7% des brevets de TIC (technologies de l'information et de la communication) générés par des femmes dans les pays du G20; Selon l’UNESCO, la surutilisation d’assistants vocaux féminins est «une illustration puissante des préjugés sexistes codés dans les produits technologiques, omniprésents dans le secteur des technologies et apparents dans l’éducation aux compétences numériques».

La solution? Nous avons besoin de plus de femmes dans les industries des sciences, de la technologie, de l'ingénierie et des mathématiques, et cela, selon l'UNESCO, exige de «recruter, fidéliser et promouvoir les femmes dans le secteur de la technologie». Après tout, comment nos assistants vocaux peuvent-ils représenter efficacement leurs utilisateurs si un pourcentage énorme de ces utilisateurs n’a aucun mot à dire dans leur développement?

Quelle que soit la réponse, il est clair que nous avons besoin de plus de choix en ce qui concerne les voix dans nos enceintes intelligentes. Comme le dit Kanouse, «qu’il s’agisse d’une voix masculine, d’un discours neutre, ou de l’enregistrement simulé d’un personnage célèbre tel que Morgan Freeman, par exemple, ces sociétés pourraient mettre en œuvre des solutions créatives qui permettraient de ne pas renforcer les stéréotypes sexistes».

Elle ajoute: «Ce changement pourrait être une déclaration très puissante de la part de ces sociétés influentes».

"Et ne serait-il pas amusant de dire à Morgan Freeman quoi faire tous les jours?"

Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES