Connectez-vous avec nous

Internet

Évaluer les risques posés par les deepfakes

Il y a quelques semaines, l'association caritative française Solidarité Sida a fait sensation en publiant une vidéo fausse mais très réaliste de Donald Trump proclamant "le SIDA est terminé" dans le cadre d'une campagne de sensibilisation. La vidéo en question est ce que l'on appelle un deepfake, une technique qui consiste à utiliser l'apprentissage automatique pour fabriquer des images et des vidéos de plus en plus réalistes ainsi que des fichiers audio et texte.

Cette utilisation d'une vidéo profonde par un organisme de bienfaisance met en évidence la prévalence croissante de ce phénomène. Bien que la pornographie représente actuellement la grande majorité des vidéos deepfake, la technique peut également être utilisée pour frauder, diffamer, diffuser de fausses nouvelles ou voler l'identité de quelqu'un.

Menaces en évolution

En septembre, l'International Risk Governance Center (IRGC) de l'EPFL a réuni une trentaine d'experts pour un séminaire interdisciplinaire afin de discuter de ce phénomène en évolution rapide et de sa prévalence croissante. Le CGRI a publié aujourd'hui un rapport contenant des informations précieuses sur les risques associés aux contrefaçons.

La principale observation est que ces risques pourraient potentiellement causer des dommages étendus dans de nombreux domaines de la vie. "Toute organisation ou activité commerciale qui s'appuie sur des preuves documentaires est potentiellement vulnérable", explique Aengus Collins, auteur du rapport et directeur adjoint du CGRI. Les Deepfakes peuvent provoquer beaucoup d'incertitude et de confusion. Dans un cas récent, des voleurs ont utilisé un son profond de la voix d'un chef de la direction pour voler de l'argent à une entreprise. À l'échelle de la société, une prolifération de contenus fabriqués pourrait saper la vérité et éroder la confiance du public, pierres angulaires du débat démocratique.

Le rapport fournit un cadre pour catégoriser les risques de contrefaçon. Il met en évidence trois impacts clés – atteinte à la réputation, fraude et extorsion, et la manipulation des processus décisionnels – et note que ces impacts peuvent être ressentis individuellement, institutionnellement ou à travers la société.

Avec un éventail aussi large de dommages potentiels dus aux contrefaçons, où les réponses de gouvernance des risques sont-elles les plus nécessaires? Les experts recommandent de se concentrer sur l'ampleur et la gravité du préjudice potentiel, ainsi que sur la capacité de la «cible» à faire face aux retombées. Par exemple, une entreprise disposant de ressources suffisantes et dotée de processus établis sera mieux en mesure d'absorber l'impact d'une attaque profonde qu'une victime privée de harcèlement.

Solutions interdépendantes

Dans le rapport, l'IRGC formule 15 recommandations couvrant une variété de réponses potentielles aux deepfakes qui pourraient atténuer les risques qu'elles présentent. Cela nécessite également une recherche plus approfondie dans tous les domaines.

L'une des principales catégories de recommandations est la technologie, y compris les outils qui peuvent vérifier la provenance du contenu numérique ou détecter les deepfakes. À l'EPFL, le Multimedia Signal Processing Group (MMSPG) et la startup Quantum Integrity développent actuellement une solution de détection de contrefaçon qui pourrait être déployée en 2020. "Pour tout ensemble de défenses donné, il y aura des vulnérabilités qui peuvent être exploitées", explique Collins. "Mais maintenir et développer des réponses technologiques aux deepfakes est crucial pour dissuader la plupart des abus."

Le rapport souligne également la nécessité de se concentrer davantage sur le statut juridique des deepfakes, afin de clarifier comment les lois dans des domaines tels que la diffamation, le harcèlement et le droit d'auteur s'appliquent au contenu synthétique.

Plus généralement, la culture numérique a un rôle important à jouer. Mais Collins prévient qu'il y a un paradoxe ici: "L'un des objectifs de la littératie numérique dans ce domaine est d'encourager les gens à ne pas prendre le contenu numérique à leur valeur nominale. Mais il doit également y avoir un accent positif sur des choses comme la corroboration et l'évaluation Sinon, encourager les gens à se méfier de tout ce qu'ils voient risque d'aggraver les problèmes liés à l'érosion de la vérité et de la confiance. "

Des horizons plus larges

Bien que le rapport du CGRI se concentre sur la gouvernance des risques en profondeur, cette recherche fait partie d'un flux de travail plus large sur les risques associés aux technologies émergentes et convergentes, qui se poursuivra en 2020. "Nous décidons actuellement de ce que sera notre prochain objectif", a déclaré Collins. "Et les candidats ne manquent pas. Nous vivons à une époque où la relation entre technologie, risque et politique publique est plus importante que jamais."


Le porno et la politique sont des cibles clés des «  deepfakes '': étude


Plus d'information:
Authenticité forgée – Gouvernance des risques Deepfake. infoscience.epfl.ch/record/273… Deepfake% 20Risks.pdf

Fourni par
                                                                                                    Ecole Polytechnique Federale de Lausanne


Citation:
                                                 Évaluation des risques posés par les deepfakes (17 décembre 2019)
                                                 récupéré le 17 décembre 2019
                                                 depuis https://techxplore.com/news/2019-12-posed-deepfakes.html

Ce document est soumis au droit d'auteur. Hormis toute utilisation équitable aux fins d'études ou de recherches privées, aucune
                                            une partie peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.

Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES