Les eurodéputés voteront demain sur le futur règlement de l’UE sur l’intelligence artificielle, un texte ambitieux retardé par les controverses entourant ces technologies.
L’Union européenne veut être la première au monde à se doter d’un cadre juridique complet pour limiter les dérives de l’intelligence artificielle (IA), tout en sécurisant l’innovation. D’une grande complexité technique, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent. Diffusion de contenus dangereux, manipulation de l’opinion par la création de fausses images avec des logiciels comme Midjourney, systèmes de surveillance de masse ou risques encore inconnus… Des personnalités de la tech, comme le patron de Twitter, Elon Musk, ont même réclamé un moratoire sur leur développement.
Le grand public a découvert leur potentiel immense à la fin de l’an dernier avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.
Un projet de législation en attente
Face à ces bouleversements rapides, la Commission européenne a proposé il y a deux ans un projet de législation dont l’examen traîne en longueur. Les États membres de l’UE ont seulement défini leur position fin 2022. Les eurodéputés, très divisés, entérineront la leur demain dans un vote en commissions à Strasbourg qui devrait être confirmé en plénière en juin. S’ouvrira ensuite une négociation difficile entre les différentes institutions.
La vice-présidente de la Commission européenne Margrethe Vestager a appelé lundi à ne pas perdre de temps. «J’espère vraiment que nous pourrons terminer cette année», a-t-elle dit. Le retard s’explique en partie par l’irruption dans le débat public des IA dites à usage général (capables d’accomplir une grande variété de tâches), dont font partie les IA génératives comme ChatGPT.
Plus de transparence
«C’est un texte complexe et nous avons ajouté un régime nouveau de règles dédié aux IA génératives», a expliqué le corapporteur Dragos Tudorache. Les eurodéputés souhaitent contraindre les fournisseurs à mettre en place des protections contre les contenus illégaux et à révéler les données protégées par les droits d’auteur utilisées pour développer leurs algorithmes. Mais des experts considèrent que les risques des IA génératives ne nécessitent pas de traitement séparé. «Je ne vois pas la motivation du Parlement. Je ne vois pas en quoi ces risques sont différents de ce qui a déjà été anticipé», a commenté Pierre Larouche, expert en droit du numérique à l’université de Montréal et chercheur au Center on Regulation in Europe (Cerre).
La proposition de la Commission, dévoilée en avril 2021, prévoit déjà un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement. Le texte s’inspire des réglementations européennes existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises.
Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Les eurodéputés veulent y ajouter l’interdiction des systèmes de reconnaissance des émotions et supprimer les dérogations autorisant l’identification biométrique à distance des personnes dans les lieux publics par les forces de l’ordre. Ils entendent aussi interdire la récolte en masse de photos sur internet pour entraîner les algorithmes sans l’accord des personnes concernées.
Contrôle humain sur la machine
Le cœur du projet consiste en une liste de règles imposées aux seules applications qui seront jugées à «haut risque» par les entreprises elles-mêmes à partir des critères du législateur. La Commission européenne a proposé qu’elles concernent les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations…
Parmi les obligations : un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque… Leur respect sera contrôlé par des autorités de surveillance désignées dans chaque pays membre. Les eurodéputés veulent des critères plus stricts pour restreindre la classification «haut risque» aux seuls produits pouvant menacer la sécurité, la santé ou les droits fondamentaux.