• Votre panier est vide.

  • LOGIN

Des chercheurs proposent de combattre le deepfake grâce à l’analyse de fréquence


Certains articles de veille peuvent faire l'objet de traduction automatique.


Lorsque le deepfake devient de plus en plus un problème, les scientifiques ont mis au point une stratégie contre-active. Les chercheurs ont partagé des détails sur la façon dont l’analyse de fréquence des images peut détecter le deepfake.

Analyse de fréquence pour détecter Deepfake

Selon certaines informations, des chercheurs de l’Université de la Ruhr à Bochum ont mis au point un outil capable de détecter les images deepfake. L’outil exploite l’analyse de fréquence pour faire la distinction entre les images deepfake et les images originales.

En bref, ils ont abordé le problème de l’identification de fausses images générées par ordinateur. Expliquant comment ces images prennent vie, les chercheurs ont expliqué que les modèles informatiques, Generative Adversarial Networks ou GAN, jouent un rôle clé dans la génération de ces images presque réelles.

La technique utilise précisément deux algorithmes. Alors que le premier crée une fausse image, le second l’analyse pour la détecter comme fausse. S’il est détecté, il commande alors au premier algorithme de réviser l’image. Cela continue jusqu’à ce que le deuxième algorithme ne détecte plus l’image comme fausse.

Certes, avec une telle précision et perfection, ce deepfake crée plus de problèmes qu’on ne peut l’imaginer. Elles sont particulièrement dangereuses étant donné le dilemme des fausses nouvelles du monde d’aujourd’hui.

Par conséquent, les chercheurs ont proposé d’utiliser l’analyse de fréquence pour détecter les images deepfake. La technique consiste à convertir l’image en domaine fréquentiel via une transformée en cosinus discrète (DCT), qu’ils décrivent comme,

Le DCT exprime… une séquence finie de points de données comme une somme de fonctions cosinus oscillant à différentes fréquences. Le DCT est couramment utilisé dans le traitement d’image en raison de ses excellentes propriétés de compactage d’énergie et de sa séparabilité, ce qui permet des implémentations efficaces.

Dans leur étude, ils ont analysé des images réelles de l’ensemble de données Flickr-Faces-HQ (FFHQ) et de fausses images générées par StyleGAN. La comparaison du spectre DCT des deux a montré des différences claires. Ainsi, l’observation des artefacts dans les images générées par ordinateur aide à leur identification.

Perspectives futures

Dans leur étude, les chercheurs élaborent également sur l’impact des techniques de suréchantillonnage sur le spectre DCT. Alors que les images générées par GAN présentent des artefacts dans le spectre de fréquences, ils ont perfectionné leur modèle en fonction des différentes techniques de suréchantillonnage (voisin le plus proche, bilinéaire et binomial).

En outre, ils ont également testé la technique d’analyse des images qui ont subi des perturbations dues au téléchargement d’images. Par exemple, si les artefacts ont persisté si l’image est téléchargée sur les réseaux sociaux. Ils ont pu établir que leur classificateur résistait à la plupart des perturbations (flou, recadrage, compression) sauf le bruit.

Cela montre donc l’efficacité de leur technique pour détecter les fausses images.

Cependant, il est toujours possible pour un adversaire d’échapper aux classificateurs via des perturbations d’image spécialement conçues. Néanmoins, comme le modèle utilise la faiblesse présente dans presque toutes les architectures GAN, il est toujours viable pour l’avenir.

Les chercheurs ont partagé leurs résultats dans un document de recherche. Alors qu’ils ont également open-source le code de leur outil de détection sur GitHub.

Faites-nous part de vos réflexions dans les commentaires.

Voir aussi :

août 19, 2020

Poster un commentaire

Please Login to comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Culte du code | 2015-2022  (Vecteurs par Freepik, Parallax par fullvector)