Accueil | Politique-Société | La technologie pour piéger les pédophiles ? Le Luxembourg reste «prudent»

La technologie pour piéger les pédophiles ? Le Luxembourg reste «prudent»


La technologie des "deepfakes" pour traquer les pédocriminels, une duperie qui soulève de sérieux problèmes éthiques et législatifs. (illustration AFP)

Avec les progrès de l’intelligence artificielle, il est désormais possible de créer des images d’actes pédophiles factices mais ultraréalistes pour infiltrer les réseaux pédocriminels. Qu’envisage le Luxembourg ?

Peut-on permettre l’utilisation d’algorithmes pour fabriquer de fausses images pédopornographiques réalistes dans le but d’identifier et démanteler les réseaux pédocriminels ? C’est la question à la fois éthique et législative qu’a posée le député Gusty Graas (DP) à la ministre de la Justice, Sam Tanson, citant l’exemple de l’Allemagne qui «a pris une initiative législative» en ce sens afin de permettre aux enquêteurs d’utiliser de fausses photos d’actes pédophiles pour mener leurs investigations.

«La technique de l’intelligence artificielle qui pourrait être utilisée pour la création de ce contenu s’appelle « réseaux antagonistes génératifs » (ou GAN, generative adversarial networks en anglais, NDLR). Il s’agit d’une classe d’algorithmes d’apprentissage non supervisée qui permet de générer des images avec un fort degré de réalisme», a précisé Gusty Graas.

Grâce à l’intelligence artificielle, il est en effet désormais devenu possible de transférer les expressions faciales d’une personne à une autre ou les propos d’une personne vers une autre tout en gardant les mimiques de cette dernière, que ce soit à partir d’un enregistrement ou en temps réel.

Cette technologie est testée depuis plusieurs années mais c’est en 2016 qu’elle suscite l’épatement, avec l’apparition du logiciel Face2Face, mis au point par des chercheurs de l’université de Stanford, avec lequel la technique se révèle tout particulièrement aboutie. Ces «deepfakes» (contraction de deeplearning – méthode par laquelle l’intelligence artificielle est capable d’apprendre par elle-même – et de fake, faux) sont de plus en plus sophistiqués. Des vidéos de Barack Obama tenant des propos de Donald Trump (et inversement), tout en conservant sa propre voix et ses propres mimiques, témoignent de la qualité de la supercherie.

L’urgence : détruire les images

Une duperie qui, si elle est intéressante d’un point de vue créatif, soulève toutefois de sérieux problèmes éthiques, d’autant plus dans le domaine de la pédocriminalité. Et si le parlement allemand a approuvé vendredi la modification de la législation pour permettre aux enquêteurs en matière de crimes à caractère pédopornographique d’utiliser des images factices, le Luxembourg, qui n’utilise pas encore de techniques de l’intelligence artificielle, ne semble quant à lui pas prêt à adopter une telle mesure.

C’est en effet le sens de la réponse de la ministre de la Justice, Sam Tanson, apportée mardi. «Il échet de demeurer particulièrement prudent quant aux moyens d’enquête déployés en matière de lutte contre la pédopornographie», a rappelé la ministre, qui invoque le risque de «nullité de procédure» si une telle méthode d’investigation était utilisée à l’heure actuelle. Les images factices pourraient en effet être considérées comme une forme d’«incitation à la commission d’une infraction» au vu du droit actuel.

En effet, depuis la loi du 27 juin 2018, les enquêteurs peuvent utiliser des pseudonymes par voie électronique, mais uniquement en cas de suspicion d’infractions liées à la sûreté de l’État, au financement du terrorisme ou aux actes terroristes. Mais pas dans le cadre de pédopornographie. De fait, «en l’état, le droit luxembourgeois n’admet pas cette forme d’enquête, si bien qu’il faudrait pour utiliser cette forme prévoir une modification législative en ce sens», explique la ministre.

Une modification que Sam Tanson n’envisage pas, les images, bien que factices, «représentant de façon non ambiguë des actes de pédocriminalité» alors que «la première urgence est la destruction immédiate de toute image de cette nature».

«Il ne semble pas judicieux d’intégrer à la masse de photos provenant d’infractions réelles des imitations des crimes et délits en question», a conclu la ministre.

Tatiana Salvan