Connectez-vous avec nous

Internet

Comment la technologie peut détecter les fake news dans les vidéos

Crédit : Pixabay/CC0 Domaine public

Les médias sociaux représentent un canal majeur pour la diffusion de fake news et de désinformation. Cette situation s’est aggravée avec les progrès récents des outils d’édition de photos et de vidéos et d’intelligence artificielle, qui facilitent l’altération des fichiers audiovisuels, par exemple avec les « deepfakes », qui combinent et superposent des images, des clips audio et vidéo pour créer des montages qui ressemblent à des séquences réelles.

Des chercheurs des groupes K-riptography and Information Security for Open Networks (KISON) et Communication Networks & Social Change (CNSC) de l’Institut interdisciplinaire de l’Internet (IN3) de l’Universitat Oberta de Catalunya (UOC) ont lancé un nouveau projet visant à développer une technologie innovante qui, grâce à l’intelligence artificielle et aux techniques de dissimulation des données, devrait aider les utilisateurs à différencier automatiquement le contenu multimédia original du contenu falsifié, contribuant ainsi à réduire la diffusion de fausses nouvelles. DISSIMILAR est une initiative internationale dirigée par l’UOC et comprenant des chercheurs de l’Université de technologie de Varsovie (Pologne) et de l’Université d’Okayama (Japon).

 » Le projet a deux objectifs : d’une part, fournir aux créateurs de contenu des outils permettant de filtrer leurs créations, rendant ainsi toute modification facilement détectable ; d’autre part, offrir aux utilisateurs de médias sociaux des outils basés sur des méthodes de traitement du signal et d’apprentissage automatique de dernière génération pour détecter les faux contenus numériques « , explique le professeur David Megías, chercheur principal du KISON et directeur de l’IN3. En outre, DISSIMILAR vise à inclure « la dimension culturelle et le point de vue de l’utilisateur final tout au long du projet », de la conception des outils à l’étude de la convivialité des différentes étapes.

Le danger des préjugés

Actuellement, il existe essentiellement deux types d’outils pour détecter les fake news. D’une part, les outils automatiques basés sur l’apprentissage automatique, dont il n’existe (actuellement) que quelques prototypes. D’autre part, il existe des plateformes de détection de fausses nouvelles à participation humaine, comme c’est le cas pour Facebook et Twitter, qui requièrent la participation de personnes pour déterminer si un contenu spécifique est authentique ou faux. Selon David Megías, cette solution centralisée pourrait être affectée par « différents préjugés » et encourager la censure. « Nous pensons qu’une évaluation objective basée sur des outils technologiques pourrait être une meilleure option, à condition que les utilisateurs aient le dernier mot pour décider, sur la base d’une pré-évaluation, s’ils peuvent faire confiance à certains contenus ou non », a-t-il expliqué.

Pour M. Megías, il n’existe pas de « solution miracle » permettant de détecter les fake news : la détection doit plutôt être effectuée à l’aide d’une combinaison de différents outils. « C’est pourquoi nous avons choisi d’explorer la dissimulation d’informations (filigranes), les techniques d’analyse judiciaire des contenus numériques (en grande partie basées sur le traitement du signal) et, cela va sans dire, l’apprentissage automatique », a-t-il noté.

Vérification automatique des fichiers multimédias

Le filigrane numérique comprend une série de techniques dans le domaine de la dissimulation des données qui intègrent des informations imperceptibles dans le fichier original afin de pouvoir vérifier « facilement et automatiquement » un fichier multimédia. « Il peut être utilisé pour indiquer la légitimité d’un contenu en confirmant, par exemple, qu’une vidéo ou une photo a été distribuée par une agence de presse officielle, et peut également être utilisé comme une marque d’authentification, qui serait supprimée en cas de modification du contenu, ou pour retracer l’origine des données. En d’autres termes, il permet de savoir si la source de l’information (par exemple, un compte Twitter) diffuse du faux contenu », a expliqué M. Megías.

Techniques d’analyse criminalistique du contenu numérique

Le projet combinera le développement de filigranes avec l’application de techniques d’analyse judiciaire du contenu numérique. L’objectif est d’exploiter la technologie du traitement du signal pour détecter les distorsions intrinsèques produites par les appareils et les programmes utilisés lors de la création ou de la modification de tout fichier audiovisuel. Ces processus donnent lieu à une série d’altérations, telles que le bruit des capteurs ou la distorsion optique, qui pourraient être détectées au moyen de modèles d’apprentissage automatique. « L’idée est que la combinaison de tous ces outils améliore les résultats par rapport à l’utilisation de solutions isolées », a déclaré M. Megías.

Études auprès d’utilisateurs en Catalogne, en Pologne et au Japon

L’une des principales caractéristiques de DISSIMILAR est son approche « holistique » et sa collecte des « perceptions et composantes culturelles autour des fake news. » Dans cette optique, différentes études axées sur les utilisateurs seront menées, décomposées en différentes étapes. « Tout d’abord, nous voulons savoir comment les utilisateurs interagissent avec les nouvelles, ce qui les intéresse, les médias qu’ils consomment, en fonction de leurs centres d’intérêt, ce sur quoi ils se basent pour identifier certains contenus comme des fake news et ce qu’ils sont prêts à faire pour vérifier leur véracité. Si nous pouvons identifier ces éléments, il sera plus facile pour les outils technologiques que nous concevons de contribuer à empêcher la propagation des fake news », a expliqué M. Megías.

Ces perceptions seront évaluées dans différents lieux et contextes culturels, dans le cadre d’études de groupes d’utilisateurs en Catalogne, en Pologne et au Japon, afin d’intégrer leurs particularités dans la conception des solutions. « C’est important car, par exemple, chaque pays possède des gouvernements et/ou des autorités publiques plus ou moins crédibles. Cela a un impact sur la façon dont les nouvelles sont suivies et sur le soutien aux fake news : si je ne crois pas à la parole des autorités, pourquoi devrais-je prêter attention aux nouvelles provenant de ces sources ? On a pu le constater lors de la crise du COVID-19 : dans les pays où la confiance dans les autorités publiques était moindre, les suggestions et les règles relatives à la gestion de la pandémie et à la vaccination étaient moins respectées », a déclaré Andrea Rosales, chercheur au CNSC.

Un produit facile à utiliser et à comprendre

Lors de la deuxième étape, les utilisateurs participeront à la conception de l’outil pour « s’assurer que le produit sera bien accueilli, facile à utiliser et à comprendre », a déclaré Andrea Rosales. « Nous aimerions qu’ils soient impliqués avec nous tout au long du processus jusqu’à la réalisation du prototype final, car cela nous aidera à mieux répondre à leurs besoins et priorités et à faire ce que d’autres solutions n’ont pas pu faire », a ajouté David Megías.

Cette acceptation par les utilisateurs pourrait à l’avenir être un facteur qui conduit les plateformes de réseaux sociaux à inclure les solutions développées dans ce projet. « Si nos expériences portent leurs fruits, ce serait formidable qu’elles intègrent ces technologies. Pour l’instant, nous nous contenterions d’un prototype fonctionnel et d’une preuve de concept qui pourrait encourager les plateformes de médias sociaux à inclure ces technologies à l’avenir », a conclu David Megías.

Les recherches précédentes ont été publiées dans le Numéro spécial sur les ateliers de l’ARES 2021.


L’intelligence artificielle n’est peut-être pas la solution pour stopper la propagation des fake news


Plus d’informations :
D. Megías et al, Architecture d’un système de détection de fake news combinant filigrane numérique, traitement du signal et apprentissage automatique, Numéro spécial sur les ateliers de l’ARES 2021. (2022). DOI: 10.22667/JOWUA.2022.03.31.033

A. Qureshi et al, Detecting Deepfake Videos using Digital Watermarking, Sommet annuel et conférence de l’Association de traitement des signaux et de l’information de l’Asie-Pacifique 2021 (APSIPA ASC) (2021). ieeexplore.ieee.org/document/9689555

David Megías et al, DISSIMILAR : Towards fake news detection using information hiding, signal processing and machine learning, 16e conférence internationale sur la disponibilité, la fiabilité et la sécurité (ARES 2021). (2021). doi.org/10.1145/3465481.3470088

Fourni par
Universitat Oberta de Catalunya (UOC)

Citation:
Comment la technologie peut détecter les fake news dans les vidéos (2022, 29 juin)
récupéré le 1er juillet 2022
à partir de https://techxplore.com/news/2022-06-technology-fake-news-videos.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune
partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.


Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES