L’hypertrucage ou le deepfake est un procédé de manipulation d’un fichier audio, visuel ou vidéo qui recourt aux algorithmes de l’apprentissage profond pour créer des trucages ultraréalistes.

Technique développée en 2016 dans les milieux de la recherche, elle s’est rapidement fait connaitre du grand public lorsque des liens vers de fausses vidéos à caractère pornographique, censées mettre en scène des personnalités publiques, sont apparues sur la plateforme Reddit. Tout contenu numérique distribué en ligne peut être truqué. Vous l’aurez compris, l’hypertrucage est souvent effectué dans un but malveillant pour causer du tort à une personnalité publique. Les dangers associés aux hypertrucages vont au-delà des vidéos à caractère pornographique.

Des chercheurs du CRIM développent actuellement un modèle d’apprentissage profond pour la détection des contenus audiovisuels manipulés (hypertrucage).

En 2019, on dénombrait 15 000³ vidéos hypertruquées sur les réseaux sociaux, une augmentation de 83% en un an. Depuis, la tendance se maintient, stimulée par la quantité de logiciels deepfake accessibles au grand public.

L’hypertrucage peut inclure l’ajout, la modification ou la suppression d’objets dans une vidéo ou une image. Cette technique se prête particulièrement bien aux visages puisqu’ils partagent tous les mêmes attributs (yeux, nez, bouche, etc.).

«Ces images et vidéos contrefaites peuvent faire du mal tant à la société qu’aux individus. Elles peuvent être utilisées pour de la diffamation ou de l’extorsion», explique Mohamed Dahmane, chercheur en vision par ordinateur au CRIM.

Les experts du CRIM se sont penchés sur le défi Vérification de l’intégrité de la vidéo pleine vitesse avec pour objectif de développer un prototype basé sur l’intelligence artificielle qui détecterait les contenus truqués en circulation sur Internet et qui différencierait les éléments vrais du faux pour une image donnée.

Pour plus de détails sur le deepfake, cliquez ici

image