Accueil | A la Une | SnT Partnership Day : du ludique pour sensibiliser aux deepfakes

SnT Partnership Day : du ludique pour sensibiliser aux deepfakes


Mardi, le SnT Partnership Day a permis à de nombreux chercheurs de présenter leurs projets. (Photo : hervé montaigu)

Des chercheurs de l’université du Luxembourg ont sensibilisé aux dangers des deepfakes lors du SnT Partnership Day.

Qui n’a jamais entendu parler de l’intelligence artificielle? Devenue omniprésente dans les discussions sur les nouvelles technologies, l’intelligence artificielle envahit notre quotidien. L’un de ses usages est celui du deepfake ou hypertrucage en français. Cette technique permet de changer le visage d’une personne sur une photo ou une vidéo et de reproduire la voix de quelqu’un. Entre de mauvaises mains, le deepfake peut mener à des usages malveillants tels que des canulars ou des fausses nouvelles.

C’est à ces usages malveillants que les chercheurs du Computer Vision, Imaging & Machine Intelligence Research Group (CVI²) ont sensibilisé le public lors du SnT Partnership Day mardi. Cet évènement réunit chaque année chercheurs et industriels, et leur permet de présenter leurs projets. L’édition 2024 a marqué la 15e année d’existence du SnT, le centre interdisciplinaire spécialisé en nouvelles technologies financières, en cybersécurité, en ingénierie des systèmes spatiaux ou encore en véhicules autonomes.

Parmi les nombreux stands installés au rez-de-chaussée de l’European Convention Center, celui du CVI² ne manque pas  d’attirer l’œil des visiteurs. Pour les plus curieux qui s’y approchent, le premier contact se fait grâce à une vidéo de la professeure Djamila Aouada, expliquant le projet. Tout du moins, c’est ce que l’on pense à première vue. «Il s’agit d’un avatar de notre directrice que nous avons généré pour l’occasion», révèle Niki Foteinopoulou, l’une des chercheuses du projet. L’effet de surprise fonctionne. Le premier deepfake annonce la couleur. Ici, l’équipe veut montrer la difficulté pour différencier le vrai du faux.

Sensibilisation ​​​​​​​par l’image, le son…

L’avatar de la directrice du groupe de recherche n’est qu’un premier aperçu de ce que le stand propose. En s’y aventurant un peu plus, les visiteurs peuvent se soumettre à trois exercices. «On voulait présenter l’étendue des possibilités des deepfakes en proposant quelque chose de ludique et d’amusant.»

Ceux qui ont toujours rêvé de ressembler à une célébrité n’ont qu’à se présenter devant le grand écran à gauche du stand pour voir leur rêve devenir réalité. En quelques secondes seulement, le logiciel transforme le visage sur le retour caméra en celui de Jackie Chan ou de Robert Downey Jr. «Cette technologie n’a que quelques années d’existence et est déjà dépassée», explique Marcella Astrid, une autre chercheuse travaillant sur le projet. Son efficacité démontre l’évolution rapide de cette nouvelle technologie. Elle prouve également le risque toujours plus grand qu’elle présente.

Pour se faire une idée des possibilités audios des deepfakes, le groupe de recherche propose aux visiteurs de reproduire leur propre voix. Pour ce faire, ils s’enregistrent en lisant un texte de quelques lignes. «Ça ne demande que 20 secondes au logiciel pour analyser les spécificités de la voix de quelqu’un pour pouvoir la reproduire.» Une fois fait, le logiciel peut lire n’importe quel script avec la voix de quelqu’un d’autre. Et là encore, le résultat est bluffant. La voix produite par le logiciel est, certes, plus robotique, mais elle ressemble énormément à l’originale. Les personnes malveillantes n’ont donc qu’à récupérer des vidéos ou des audios de quelques secondes pour créer, en peu d’efforts, un deepfake.

Un détecteur de deepfakes

Le clou du spectacle, c’est l’exercice «Réel ou faux?». Casque sur la tête, téléphone en main, les visiteurs voient défiler des dizaines d’images, vidéos et audios, et doivent déterminer si ce qu’ils voient est un deepfake ou non. Et l’exercice est ardu. Essayer de déceler les artefacts numériques n’est pas aussi simple que ce que l’on pourrait imaginer. Même en reconnaissant les célébrités ou les voix présentées, les visiteurs se trompent. «Lorsque l’on a testé l’exercice, l’un de mes collègues avait dit que ce serait simple. Au final, c’est lui qui a eu le score le moins bon», rigole Pavel Chernakov, le chercheur présentant cet exercice.

«Une phrase, une photo et 15 secondes sont suffisantes pour générer un deepfake», peut-on lire sur la pancarte du stand. Pour lutter contre cette technique toujours plus performante et dangereuse, l’équipe du CVI² travaille sur un détecteur de deepfakes. Les chercheurs l’entraînent en lui présentant de nombreuses images, vraies comme fausses. «Le plus important, c’est de lui montrer de réelles images. Plus le logiciel voit ce qui est vrai, mieux il peut détecter le faux», explique Marcella Astrid.

Des projets locaux

Des projets locaux étaient également présentés lors du SnT Partnership Showcase. C’est le cas de LetzPower!, un projet tout juste lancé en début d’année. Son but est d’aider les citoyens luxembourgeois à économiser l’énergie dans leur foyer grâce à une application. Le tout dans un contexte où le Luxembourg devra être décarbonisé d’ici 2050. Pour le moment, le projet en est à ses balbutiements. L’équipe de recherche mène des enquêtes auprès des foyers pour comprendre leurs différentes manières de fonctionner. Après cela, elle fera tester l’application à plusieurs clients avant de pouvoir la lancer officiellement.

PUBLIER UN COMMENTAIRE

*

Votre adresse email ne sera pas publiée. Vos données sont recueillies conformément à la législation en vigueur sur la Protection des données personnelles. Pour en savoir sur notre politique de protection des données personnelles, cliquez-ici.