Gadgets
Nous mettons en place de nouvelles fonctionnalités personnalisées dans les spectacles en utilisant une version éthique de l’IA.
« Regardez ailleurs maintenant si vous ne voulez pas connaître le score », dit-on au journal télévisé avant de communiquer les résultats du football. Mais imaginez que votre télévision sache quelles équipes vous suivez, quels résultats retenir – ou qu’elle sache éviter le football et vous parler d’autre chose. Avec la personnalisation des médias, sur laquelle nous travaillons avec la BBC, ce genre de choses devient possible.
D’importants défis restent à relever pour adapter la production en direct, mais d’autres aspects de la personnalisation des médias s’en rapprochent. En effet, la personnalisation des médias existe déjà dans une certaine mesure. C’est comme si votre BBC iPlayer ou Netflix vous suggérait du contenu en fonction de ce que vous avez regardé précédemment, ou que votre Spotify vous proposait des listes de lecture susceptibles de vous plaire.
Mais ce dont nous parlons ici, c’est de la personnalisation au sein du programme. Il peut s’agir d’ajuster la durée du programme (on peut vous proposer une version abrégée ou prolongée), d’ajouter des sous-titres ou des graphiques, ou d’améliorer les dialogues (pour les rendre plus intelligibles si, par exemple, vous vous trouvez dans un endroit bruyant ou si votre audition commence à faiblir). Il peut aussi s’agir de fournir des informations supplémentaires sur le programme (un peu comme ce que vous pouvez faire maintenant avec le bouton rouge de la BBC).
La grande différence est que ces fonctionnalités ne seraient pas génériques. Les émissions seraient réorganisées en fonction de vos goûts et adaptées à vos besoins, selon l’endroit où vous vous trouvez, les appareils que vous avez connectés et ce que vous faites.
Pour offrir au public de nouveaux types de personnalisation des médias à grande échelle, ces fonctions seront alimentées par l’intelligence artificielle (IA). L’IA fonctionne grâce à l’apprentissage automatique, qui exécute des tâches sur la base d’informations provenant de vastes ensembles de données fournies pour entraîner le système (un algorithme).
C’est l’objet d’un partenariat entre la BBC et le Centre for Vision, Speech and Signal Processing de l’Université de Surrey. Connu sous le nom d’Intelligence artificielle pour des expériences médiatiques personnalisées, ou AI4ME, ce partenariat vise à aider la BBC à mieux servir le public, en particulier les nouvelles audiences.
Reconnaître les difficultés de l’IA
Les principes de l’Organisation de coopération et de développement économiques (OCDE) en matière d’IA exigent que l’IA profite à l’humanité et à la planète, en intégrant l’équité, la sécurité, la transparence et la responsabilité.
Pourtant, les systèmes d’IA sont de plus en plus accusés d’automatiser l’inégalité en raison des biais dans leur formation, qui peuvent renforcer les préjugés existants et désavantager les groupes vulnérables. Cela peut prendre la forme de préjugés sexistes dans le recrutement, ou de disparités raciales dans les technologies de reconnaissance faciale, par exemple.
Un autre problème potentiel des systèmes d’IA est ce que nous appelons la généralisation. Le premier décès reconnu d’une voiture à conduite autonome en est un exemple. Après avoir été entraîné sur des images de la route, qui ont probablement filmé de nombreux cyclistes et piétons séparément, le système n’a pas reconnu une femme poussant son vélo en travers de la route.
Nous devons donc constamment recycler les systèmes d’IA à mesure que nous en apprenons davantage sur leur comportement dans le monde réel et sur les résultats que nous souhaitons obtenir. Il est impossible de donner à une machine des instructions pour toutes les éventualités, et impossible de prévoir toutes les conséquences involontaires potentielles.
Nous ne savons pas encore exactement quels types de problèmes notre IA pourrait poser dans le domaine des médias personnalisés. C’est ce que nous espérons découvrir à travers notre projet. Mais par exemple, il pourrait s’agir de quelque chose comme l’amélioration du dialogue qui fonctionne mieux avec les voix masculines qu’avec les voix féminines.
Les préoccupations éthiques ne sont pas toujours prioritaires dans une entreprise technologique, à moins qu’une réglementation gouvernementale ou une tempête médiatique ne l’exigent. Mais n’est-il pas préférable d’anticiper et de résoudre ces problèmes avant d’en arriver là ?
Le conseil citoyen
Pour bien concevoir notre système de personnalisation, il faut que le public s’engage dès le départ. C’est essentiel pour apporter une large perspective aux équipes techniques qui peuvent souffrir de mesures de performance étroitement définies, d’une « pensée de groupe » au sein de leurs départements et d’un manque de diversité.
Le comté de Surrey et la BBC travaillent ensemble pour tester une approche qui consiste à faire appel à des personnes – des personnes normales plutôt que des experts – pour superviser le développement de l’IA dans le domaine de la personnalisation des médias. Nous testons des « conseils de citoyens » afin de créer un dialogue dont les résultats serviront au développement des technologies. Notre conseil de citoyens aura une représentation diversifiée et sera indépendant de la BBC.
Tout d’abord, nous définissons le thème d’un atelier autour d’une technologie particulière que nous étudions ou d’une question de conception, comme l’utilisation de l’IA pour couper un présentateur dans une vidéo, afin de le remplacer par une autre vidéo. Les ateliers permettent de recueillir des avis et de faciliter la discussion avec des experts autour du thème, comme l’un des ingénieurs. Le conseil consulte ensuite, délibère et produit ses recommandations.
Les thèmes permettent au conseil citoyen d’examiner des technologies spécifiques au regard de chacun des principes de l’OCDE en matière d’intelligence artificielle et de débattre des utilisations acceptables des données personnelles dans le cadre de la personnalisation des médias, indépendamment des intérêts commerciaux ou politiques.
Il y a des risques. Nous pourrions ne pas refléter correctement la diversité, il pourrait y avoir des malentendus autour des technologies proposées ou un manque de volonté d’entendre les opinions des autres. Que se passe-t-il si les membres du conseil sont incapables de parvenir à un consensus ou commencent à développer un parti pris ?
Nous ne pouvons pas mesurer les catastrophes évitées grâce à ce processus, mais de nouvelles idées qui influencent la conception technique ou de nouvelles questions qui permettent d’envisager des solutions plus tôt seront des signes de réussite.
Et un seul tour de conseil n’est pas la fin de l’histoire. Nous avons l’intention d’appliquer ce processus tout au long de ce projet quinquennal de recherche en ingénierie. Nous partagerons ce que nous apprenons et encouragerons d’autres projets à adopter cette approche pour voir comment elle se traduit.
Nous pensons que cette approche peut faire entrer les considérations éthiques générales dans le champ d’action des ingénieurs développeurs dès les premières étapes de la conception de systèmes d’IA complexes. Nos participants ne sont pas redevables des intérêts des grandes entreprises technologiques ou des gouvernements, mais ils transmettent les valeurs et les croyances de la société.
La perception par les gens des messages médiatiques personnalisés en temps réel
Fourni par
La Conversation
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article original.
Citation:
Le futur de la télévision : Nous mettons en place de nouvelles fonctionnalités personnalisées dans les émissions en utilisant une version éthique de l’IA (2022, 8 mars).
récupéré le 13 mars 2022
à partir de https://techxplore.com/news/2022-03-future-tv-personalized-features-ethical.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune
partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.