Dans une bataille entre l’IA et l’IA, les chercheurs se préparent à la prochaine vague de propagande deepfake

0
16

Crédit: Domaine public Pixabay / CC0

Un journaliste d’investigation reçoit une vidéo d’un dénonciateur anonyme. Il montre un candidat à la présidence admettant une activité illégale. Mais cette vidéo est-elle réelle? Si tel est le cas, ce serait une énorme nouvelle – le scoop de toute une vie – et pourrait complètement renverser les élections à venir. Mais la journaliste fait passer la vidéo à travers un outil spécialisé, qui lui dit que la vidéo n’est pas ce qu’elle semble. En fait, c’est un “deepfake”, une vidéo réalisée à l’aide de l’intelligence artificielle avec apprentissage en profondeur.

Les journalistes du monde entier pourraient bientôt utiliser un outil comme celui-ci. Dans quelques années, un outil comme celui-ci pourrait même être utilisé par tout le monde pour éliminer les faux contenus dans leurs flux de médias sociaux.

En tant que chercheurs qui ont étudié la détection des deepfake et développé un outil pour les journalistes, nous voyons un avenir pour ces outils. Cependant, ils ne résoudront pas tous nos problèmes et ils ne constitueront qu’une partie de l’arsenal de la lutte plus large contre la désinformation.

Le problème avec les deepfakes

La plupart des gens savent que vous ne pouvez pas croire tout ce que vous voyez. Au cours des deux dernières décennies, les consommateurs avertis de nouvelles se sont habitués à voir des images manipulées avec un logiciel de retouche photo. Les vidéos, cependant, sont une autre histoire. Les réalisateurs hollywoodiens peuvent dépenser des millions de dollars en effets spéciaux pour créer une scène réaliste. Mais en utilisant des deepfakes, les amateurs avec quelques milliers de dollars d’équipement informatique et quelques semaines à dépenser pourraient rendre quelque chose presque aussi réaliste.

Deepfakes permet de mettre des gens dans des scènes de films dans lesquelles ils n’ont jamais été – pensez à Tom Cruise jouant à Iron Man – ce qui en fait des vidéos divertissantes. Malheureusement, cela permet également de créer de la pornographie sans le consentement des personnes représentées. Jusqu’à présent, ces personnes, presque toutes les femmes, sont les plus grandes victimes lorsque la technologie deepfake est mal utilisée.

Deepfakes peut également être utilisé pour créer des vidéos de dirigeants politiques disant des choses qu’ils n’ont jamais dites. Le Parti socialiste belge a publié une vidéo de mauvaise qualité, mais toujours bidon, du président Trump insultant la Belgique, qui a eu assez de réaction pour montrer les risques potentiels de deepfakes de meilleure qualité.

Peut-être le plus effrayant de tous, ils peuvent être utilisés pour créer un doute sur le contenu de vraies vidéos, en suggérant qu’il pourrait s’agir de deepfakes.

Compte tenu de ces risques, il serait extrêmement précieux de pouvoir détecter les deepfakes et de les étiqueter clairement. Cela garantirait que les fausses vidéos ne trompent pas le public et que les vraies vidéos peuvent être reçues comme authentiques.

Université de Californie, Hany Farid de Berkeley explique comment les deepfakes sont fabriqués.

Repérer les faux

La détection Deepfake en tant que domaine de recherche a débuté il y a un peu plus de trois ans. Les premiers travaux se sont concentrés sur la détection des problèmes visibles dans les vidéos, tels que les deepfakes qui ne clignotaient pas. Avec le temps, cependant, les faux se sont améliorés pour imiter de vraies vidéos et sont devenus plus difficiles à repérer pour les personnes et les outils de détection.

Il existe deux grandes catégories de recherche sur la détection des faux. La première consiste à examiner le comportement des personnes dans les vidéos. Supposons que vous ayez beaucoup de vidéos de quelqu’un de célèbre, comme le président Obama. L’intelligence artificielle peut utiliser cette vidéo pour apprendre ses schémas, de ses gestes de la main à ses pauses dans le discours. Il peut alors regarder un deepfake de lui et remarquer où il ne correspond pas à ces modèles. Cette approche a l’avantage de fonctionner éventuellement même si la qualité vidéo elle-même est essentiellement parfaite.

D’autres chercheurs, y compris notre équipe, se sont concentrés sur les différences que tous les deepfakes ont par rapport aux vraies vidéos. Les vidéos Deepfake sont souvent créées en fusionnant des cadres générés individuellement pour former des vidéos. En tenant compte de cela, les méthodes de notre équipe extraient les données essentielles des visages dans des images individuelles d’une vidéo, puis les suivent à travers des ensembles d’images simultanées. Cela nous permet de détecter les incohérences dans le flux des informations d’une trame à l’autre. Nous utilisons également une approche similaire pour notre faux système de détection audio.

Ces détails subtils sont difficiles à voir pour les gens, mais montrent à quel point les deepfakes ne sont pas encore tout à fait parfaits. Des détecteurs comme ceux-ci peuvent fonctionner pour n’importe quelle personne, pas seulement pour quelques leaders mondiaux. En fin de compte, il se peut que les deux types de détecteurs deepfake soient nécessaires.

Les systèmes de détection récents fonctionnent très bien sur les vidéos spécifiquement rassemblées pour évaluer les outils. Malheureusement, même les meilleurs modèles réussissent mal sur les vidéos trouvées en ligne. La prochaine étape clé est d’améliorer ces outils pour qu’ils soient plus robustes et plus utiles.

Qui devrait utiliser les détecteurs deepfake?

Idéalement, un outil de vérification deepfake devrait être accessible à tous. Cependant, cette technologie en est aux premiers stades de développement. Les chercheurs doivent améliorer les outils et les protéger contre les pirates avant de les diffuser largement.

Aaron Lawson de SRI International décrit une approche pour détecter les deepfakes.

En même temps, cependant, les outils pour créer des deepfakes sont disponibles pour quiconque veut tromper le public. S’asseoir sur la touche n’est pas une option. Pour notre équipe, le bon équilibre était de travailler avec les journalistes, car ils sont la première ligne de défense contre la propagation de la désinformation.

Avant de publier des articles, les journalistes doivent vérifier les informations. Ils disposent déjà de méthodes éprouvées, telles que la vérification auprès des sources et la vérification par plusieurs personnes des faits clés. Donc, en mettant l’outil entre leurs mains, nous leur donnons plus d’informations, et nous savons qu’ils ne s’appuieront pas uniquement sur la technologie, étant donné qu’elle peut faire des erreurs.

Les détecteurs peuvent-ils gagner la course aux armements?

Il est encourageant de voir des équipes de Facebook et Microsoft investir dans la technologie pour comprendre et détecter les deepfakes. Ce domaine a besoin de plus de recherche pour suivre la vitesse des progrès de la technologie deepfake.

Les journalistes et les plateformes de médias sociaux doivent également trouver la meilleure façon d’avertir les gens des deepfakes lorsqu’ils sont détectés. La recherche a montré que les gens se souviennent du mensonge, mais pas du fait que c’était un mensonge. En sera-t-il de même pour les fausses vidéos? Mettre simplement “Deepfake” dans le titre pourrait ne pas suffire à contrer certaines sortes de désinformation.

Les Deepfakes sont là pour rester. La gestion de la désinformation et la protection du public seront plus difficiles que jamais à mesure que l’intelligence artificielle devient plus puissante. Nous faisons partie d’une communauté de recherche croissante qui s’attaque à cette menace, dans laquelle la détection n’est que la première étape.


Une toute petite modification peut aider à la détection des deepfakes


Fourni par The Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.La conversation

Citation: Dans une bataille entre l’IA et l’IA, les chercheurs se préparent à la prochaine vague de propagande deepfake (2020, 9 octobre) récupéré le 9 octobre 2020 sur https://techxplore.com/news/2020-10-ai-deepfake-propaganda. html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Laisser un commentaire