MarcoServices - informatique langon à votre domicile

Comment distinguer une photo ou vidéo réelle d'un trucage ?

Souris, le petit oiseau (le vrai du faux) va sortir

Édito : Savez-vous ce qu'est un deepfake ? C'est une technique de manipulation d'image ou de vidéo qui utilise l'intelligence artificielle pour créer des photos ou vidéos falsifiées dans lesquelles le visage ou les actions d'une personne sont superposés sur le corps d'une autre, souvent de manière très réaliste.

Vous pouvez venir sur notre groupe pour en débattre : entraide informatique Sud-Gironde.


Comment fabrique-t-on un deepfake ? On commence par collecter une grande quantité de données vidéo ou images de la personne à imiter, ainsi que des données de la personne dont on veut utiliser le corps. Vous comprenez déjà, pourquoi il est important de faire attention de ce que l'on peut publier sur les réseaux sociaux.
Ensuite, on utilise des algorithmes d'apprentissage automatique, en résumé par une IA dédié à cela.
Notez, que les deepfakes sont souvent utilisés de manière malveillante pour créer des images ou vidéos trompeuses, diffamatoires ou pornographiques. C'est pourquoi il est essentiel de sensibiliser le public.

Le pape en doudoune blanche en 2023

Le premier deepfake viral de l'IA

L’usurpation d’image et de vidéo a une incidence directe sur la cybersécurité. Depuis des années, les escrocs utilisent de fausses images et vidéos pour inciter les victimes à leur donner de l’argent. Ils peuvent vous envoyer une photo d’un chiot triste qui aurait besoin d’aide, d’une célébrité ventant des stratagèmes douteux, ou même d’une carte de crédit supposée appartenir à l’un de vos proches. Les escrocs utilisent également des images générées par l’IA pour créer de faux profils sur les sites de rencontre et les réseaux sociaux.

Les escroqueries les plus sophistiquées utilisent des deepfakes audio ou vidéo mettant en scène le patron ou un proche de la victime pour l’amener à répondre aux demandes des escrocs. Récemment encore, un employé d’une institution financière s’est laissé convaincre de transférer 25 millions de dollars à des cyberescrocs ! Ils avaient organisé un appel vidéo avec le « directeur financier » et les « collègues » de la victime, tous des deepfakes.

Alors, que faire pour lutter contre les deepfakes ou même les simples détournements ? Comment les détecter ? Le problème est extrêmement complexe, mais peut être atténué petit à petit en retraçant la provenance de l’image.

Découvrir la provenance...

Nous utilisons 2 outils pour nous aider, nous allons vous les donner.

Comme mentionné ci-dessus, il existe différents types de « faux ». Parfois, l’image en elle-même n’est pas truquée, mais elle est utilisée de manière trompeuse. Une vraie photo de zone de guerre peut être présentée comme celle d’un autre conflit, ou une scène de film comme un documentaire. Dans ces cas, rechercher des anomalies sur l’image ne mènera à rien, mais vous pouvez essayer de rechercher des copies de l’image en ligne. Heureusement, des outils comme la recherche d’image inversée de Google et TinEye peuvent nous y aider. Ce dernier, nous le proposons pour savoir, d'où vient une photo par exemple sur un site de rencontre, sur un réseau social...

Si vous avez un doute, chargez simplement l’image dans l’un de ces outils et examinez les résultats. Vous découvrirez peut-être que la même photo d’une famille dont la maison a brûlé dans un incendie, d’un groupe de chiens dans un refuge ou de victimes d’une autre tragédie circule en ligne depuis des années. D’ailleurs, en matière de fausse collecte de fonds, gardez l’œil ouvert pour d’autres signes d’avertissement en plus des images elles-mêmes.


Prenons l'exemple de cette photo, un post sur un réseau social, nous dit qu'il faut sauver ce chien d'un laboratoire pharmacetique. Non, la photo vient d'une banque de photos. Les escrocs essayent de vous soutirer de l'argent avec un fake !

Les retouches photo

Cela existe depuis la sortie de Photoshop, CorelDraw...

Les retouches photo existent depuis un bon moment, et les mathématiciens, ingénieurs et experts de l’image travaillent depuis longtemps sur des moyens de détecter automatiquement les images altérées. Certaines méthodes populaires incluent l’analyse des métadonnées de l’image et l’analyse du niveau d’erreur (ELA), qui recherche les artefacts de compression JPEG pour identifier les zones modifiées d’une image. De nombreux outils d’analyse d’images courants, comme Fake Image Detector, appliquent ces techniques.

Avec l’émergence de l’IA générative, nous avons également vu de nouvelles méthodes basées sur l’IA pour détecter le contenu généré, mais aucune d’elles n’est parfaite. Voici quelques-uns des développements importants : détection du morphing du visage, détection d’images générées par l’IA et détermination du modèle d’IA utilisé pour les générer, et développement d’un modèle d’IA ouvert aux mêmes fins.

Le problème majeur de toutes ces approches est qu’aucune ne peut entièrement garantir la provenance de l’image ou l’absence de modifications, ni permettre de vérifier ces modifications.


Nous ne souhaitons pas, vous faire une formation sur ce sujet là, car cela va devenir de plus en plus complexe. Nous espérons vous avoir ouvert les yeux sur les deepfakes et que vous comprenez maintenant que ce que l'on peut vous montrer dans des vidéos de propagande et de guerres peuvent être des deepfakes. Et de l'importance de faire attention à vos publications sur les réseaux sociaux et de vos adolescents ou enfants !

     

Tags