Alors que l’Europe vient de légiférer sur le sujet, l’intelligence artificielle propose de plus en plus d’applications, mais comme pour toute technologie, son utilisation est sujette à débat.
Elle est aujourd’hui l’expression star des entreprises, que ce soit dans la tech qui investit massivement dans le domaine ou dans d’autres secteurs de plus en plus friands de cette technologie, surtout quand elle permet d’obtenir quelques lignes dans les médias. Depuis quelque temps, l’intelligence artificielle a le vent en poupe, portée par la démocratisation de certaines applications comme ChatGPT ou DALL-E.
L’IA au service des ressources humaines
Si elle est désormais sur toutes les lèvres, l’intelligence artificielle n’est pas apparue ces dernières années. «Elle est constituée d’un ensemble de technologies qui existent depuis plusieurs dizaines d’années. Il y a eu un petit bond technologique qui fait que maintenant, on en parle davantage», détaille Samuel Renault, responsable du laboratoire AI & Data Analytics au Luxembourg Institute of Science and Technology (LIST).
En termes d’innovation, l’IA peut être rapprochée de la robotique dans le secteur industriel qui a permis d’automatiser un certain nombre de tâches manuelles. «L’intelligence artificielle, c’est un petit peu l’équivalent, mais pour des tâches intellectuelles.»
Une technologie encore limitée
Au cours des dernières décennies, cette technologie a connu des moments d’accélération entrecoupés de passages à vide. Récemment, ce sont les grands modèles de langage, entraînés sur des ensembles de données extrêmement volumineux, qui ont permis à l’intelligence artificielle de maîtriser les langages humains tout en lui apprenant à réaliser certaines tâches (traduire ou corriger un texte, produire du code informatique, générer des images et des vidéos, rassembler des informations…). Ce sont eux qui ont permis l’émergence des IA génératives comme ChatGPT et donc leur démocratisation auprès du grand public.
Il est aujourd’hui possible de discuter directement avec une IA pour lui faire générer de nombreux contenus. Même si la technologie est encore limitée et demande un long travail pour affiner sa requête afin d’obtenir le résultat escompté, certains internautes ont prouvé que les possibilités étaient impressionnantes.
Des biais toujours présents
De plus en plus complexe, l’intelligence artificielle trouve aujourd’hui de nombreuses applications professionnelles. L’entreprise Zortify l’utilise par exemple pour prédire la personnalité d’un candidat afin d’aider les ressources humaines dans leur recrutement. «Les interactions avec du public de premier niveau sont également possibles, comme on le voit avec les chatbots qui deviennent une interface initiale avant l’intervention d’une personne», ajoute Samuel Renault.
Mais difficile pour le moment de les utiliser au-delà du support. «L’intelligence artificielle arrive à produire des résultats exploitables, mais dès que les questions se précisent, une intervention humaine est nécessaire.» Elle est également très sensible à certains biais venus des données avec lesquelles on l’entraîne. «S’ils ne sont pas représentatifs de la société ou de l’environnement dans lequel on va faire fonctionner le modèle, ces biais vont se retrouver dans la réponse de l’intelligence artificielle.» Il est alors facile de piéger une intelligence artificielle pour obtenir une réponse raciste ou sexiste de sa part.
Tout le travail des chercheurs, comme ceux du LIST, est d’identifier ces biais pour les corriger, mais aucune technique n’est parfaite puisque ces biais viennent de notre propre vision de la société. «Si on demande à une IA générative de nous donner une image de médecin, souvent, elle va générer une personne de sexe masculin et blanche parce que ce sont les données sur lesquelles elle a été entraînée.»
Une nouvelle législation européenne
Au-delà de ces biais, l’intelligence artificielle soulève aussi d’autres problématiques. Déjà très présentes sur internet, les fake news pourraient bénéficier du développement de l’IA capable de créer des deepfakes en produisant de fausses images ou vidéos. La technologie, très gourmande en ressources, a également un impact environnemental, que ce soit en empreinte carbone ou dans ses besoins en matières premières matérielles (silicium, terres rares…).
Enfin, les bouleversements que l’IA pourrait entraîner dans certains métiers font planer un risque sur l’emploi. Plusieurs entreprises pourraient vouloir remplacer une partie de leurs salariés par l’IA dans l’exécution de tâches précises, même si cela reste actuellement au niveau expérimental. En France par exemple, certains groupes de presse ont tenté d’utiliser l’IA pour corriger une partie de leurs articles avant de se rétracter face à la grogne des journalistes.
Bien consciente de ces dérives, l’Europe vient de se doter de la toute première loi encadrant l’intelligence artificielle. Publié en mai dernier au Journal officiel, l’IA Act doit entrer en vigueur en 2026. Il répartira les systèmes d’IA en quatre catégories selon leurs risques (inacceptable, élevé, limité et minimal), ce qui entraînera des restrictions plus ou moins fortes dans leur utilisation par les entreprises.
Si l’IA pose donc beaucoup de questions, c’est bien son utilisation qui pose problème plus que la technologie en elle-même. En tant qu’acteur neutre, qui ne s’attache pas à une technologie en particulier, le LIST se veut rassurant. «On voit que nos régulateurs mettent en place des mécanismes pour superviser ce qui est développé, donc il n’y a pas vraiment de craintes à ce sujet-là.» Reste un emballement médiatique et économique qui finira tôt ou tard par s’apaiser, comme ce fut le cas pour d’autres technologies. «J’imagine qu’on va revenir à un moment à la réalité, à une période de calme.»