Face à l’exploitation sauvage de données par certains développeurs d’intelligence artificielle, des artistes piègent volontairement leurs créations pour les rendre inutilisables, avec l’aide de chercheurs universitaires.
Paloma McClain est une illustratrice américaine. Plusieurs logiciels d’IA générative permettent déjà de créer des images inspirées de son style, alors que l’artiste n’a jamais donné son accord et n’en retirera rien financièrement. «Cela me dérangeait», explique la dessinatrice, basée à Houston (Texas). «Je ne suis pas une artiste connue, mais j’étais mal à l’aise à l’idée que mon travail serve à entraîner un modèle d’IA.» Pour y remédier, elle a passé ses œuvres à travers le logiciel Glaze, programme qui ajoute à ses illustrations des pixels, invisibles à l’œil humain, pour perturber le travail de l’IA.
Après ce traitement, les images créées sont floues, les visages brouillés, sans comparaison avec les originaux. «On essaie de fournir les outils technologiques pour protéger les créateurs humains contre les abus des modèles d’IA générative», explique Ben Zhao, chercheur à l’Université de Chicago, dont l’équipe a créé Glaze. Alerté en novembre 2022, ce professeur d’informatique a développé le logiciel en quatre mois, se servant de travaux antérieurs destinés à perturber la reconnaissance faciale.
1,6 million de téléchargements
«On a travaillé à toute vitesse parce que l’on savait que le problème était grave», raconte Ben Zhao. «Beaucoup de gens étaient en souffrance.» Des géants de l’IA ont passé des accords pour s’assurer des droits d’utilisation de certains contenus, mais la grande majorité des données, images, textes ou sons utilisés pour développer des modèles l’ont été sans consentement explicite. Depuis son lancement, Glaze a été téléchargé plus de 1,6 million de fois, selon le chercheur, dont l’unité s’apprête à lancer un nouveau programme, baptisé Nightshade.
Il est axé sur les requêtes en langage courant que l’utilisateur d’un modèle d’IA générative soumet pour obtenir une nouvelle image. Il vise à faire dérailler l’algorithme, qui proposera ensuite, par exemple, une image de chat alors qu’un chien a été demandé. Autre initiative, celle de la start-up Spawning, qui a mis au point Kudurru, logiciel qui détecte les tentatives de collecte massive sur des plateformes d’images.
J’étais mal à l’aise à l’idée que mon travail serve à entraîner un modèle d’IA
L’artiste a alors le choix de bloquer l’accès à ses travaux ou d’envoyer une autre image que celle qui était demandée, «ce qui revient à empoisonner» le modèle d’IA en développement et à affecter sa fiabilité, décrit Jordan Meyer, cofondateur de Spawning. Plus de mille sites internet sont déjà intégrés au réseau Kudurru. Spawning a aussi créé Have I Been Trained ?, un site qui permet de savoir si des images ont alimenté un modèle d’IA et d’offrir à leur propriétaire la possibilité de les protéger contre de futures utilisations non autorisées.
Au-delà de l’image, des chercheurs de l’université de Washington à St. Louis (Missouri) se sont, eux, intéressés au son et ont mis au point AntiFake. Ce logiciel enrichit un fichier son de bruits supplémentaires, imperceptibles à l’oreille humaine, qui rendent impossible l’imitation crédible d’une voix humaine, détaille Zhiyuan Yu, thésard à l’origine du projet. Le programme vise notamment à empêcher les «deepfakes», ces montages photo ou vidéo réalistes usant de l’apparence d’une personne, souvent célèbre, pour lui faire faire ou dire quelque chose.
«Le but, c’est que les gens puissent protéger leurs contenus»
L’équipe, supervisée par le professeur Ning Zhang, a récemment été contactée par les producteurs d’un podcast à succès qui souhaitaient le protéger de détournements, selon Zhiyuan Yu. S’il n’a, pour l’instant, été utilisé que pour du langage parlé, AntiFake pourrait également protéger les voix de chanteurs ou de chanteuses, estime le chercheur, dont le logiciel est d’accès libre et gratuit. L’unité de Ben Zhao a quant à elle été approchée par «plusieurs sociétés qui veulent utiliser Nightshade pour préserver leurs images et leur propriété intellectuelle», selon l’universitaire de Chicago.
Il n’est pas opposé à ce que des entreprises, même importantes, utilisent son programme. «Le but, c’est que les gens puissent protéger leurs contenus, qu’il s’agisse d’artistes ou de sociétés», fait valoir Ben Zhao. Dans le cas de Spawning, l’idée n’est pas seulement de faire obstruction mais, aussi, dans un second temps, de «permettre aux gens de s’organiser pour vendre leurs données moyennant rémunération», précise Jordan Meyer, qui annonce le lancement d’une plateforme début 2024. «La meilleure solution, selon lui, serait un monde dans lequel toutes les données utilisées pour l’IA sont soumises à consentement et à paiement. On espère pousser les développeurs dans cette direction.»