L’intelligence artificielle est partout. Concept et réalité nébuleux pour beaucoup, enjeu de puissance pour quelques autres, l’IA ne se laisse pas si facilement décrypter. Maxime Derian, expert reconnu, nous donne les clés pour mieux y réfléchir.
Depuis que l’IA a investi nos vies, nous ne sommes pas plus intelligents. Pourquoi ?
Maxime Derian : Nous sommes des Homo sapiens et, avec le temps, nous avons appris à stocker nos informations, nos échanges et nos pratiques par le geste et la parole. Nous nous retrouvons donc face à une capacité technologique énorme, mais notre intelligence, notre sagesse, nos besoins et nos émotions sont très proches de ce qu’ils étaient il y a 50 000 ou 100 000 ans, voire plus. Nous ne sommes ni plus ni moins intelligents qu’avant.
Et, globalement, l’intelligence artificielle n’est pas forcément intelligente. Il s’agit juste de la capacité informatique à exécuter très rapidement un nombre de tâches énormes pour parvenir à un résultat. C’est un peu comme si l’on faisait des millions de milliards de bêtises pour trouver la bonne solution.
Vous avez participé au dernier sommet sur l’IA à Paris, où se trouvaient presque tous les acteurs du secteur. Était-ce un moment stimulant ou inquiétant ?
Stimulant, notamment grâce aux évènements qui se sont déroulés en marge du sommet. J’en ai enchaîné neuf, sur les aspects scientifiques et éthiques. En y allant, je voulais servir une cause utile et liée aux enfants. Nous avons créé Beneficial AI for Children, une coalition qui rassemble Everyone AI (un groupe de chercheurs de la Silicon Valley), le Forum de la paix de Paris, plusieurs gouvernements (français, danois, norvégien…) et technorealisme.org, le groupe que j’ai cocréé.
Nous avons déjà manqué le rendez-vous entre les enfants et les écrans, il ne faut pas rater celui de l’IA. Google, Open AI et d’autres géants de la tech soutiennent le projet.
Les géants de l’IA semblent pourtant loin de ces considérations éthiques…
C’était paradoxal, mais lors des débats, on sentait bien que les grands de la tech, en tout cas ceux que j’ai vus, étaient un peu forcés d’aller dans cette accélération. Ils sont pris dans une telle course qu’ils ne peuvent pas dire : « J’arrête, je ralentis.« Mais ils ne seraient pas contre le fait que ça freine un peu.
Officiellement, ils disent « on ne veut pas être régulés parce qu’on veut être libres dans notre innovation« , mais eux aussi ont des enfants. Quand on leur parle, ils trouvent que l’approche européenne n’est pas si mauvaise.
L’efficacité des IA est devenue un enjeu géopolitique. Qu’est-ce que cela signifie des rapports de force dans le monde ?
Presque tout. L’IA est un des éléments importants du basculement actuel. Tout le monde est un peu perdu, les choses changent tellement vite. Certains sont plus perdus que d’autres, mais je ne suis même pas sûr que les États-Unis sachent vraiment où ils vont. Donald Trump ou Elon Musk ont probablement une stratégie, mais on voit bien qu’ils sont aussi dans l’improvisation. Je fais une analogie avec les voitures manuelles. La Silicon Valley a le pied au plancher.
Nous, en Europe, nous cultivons la pédale de frein. Avant de commencer à accélérer, nous vérifions qu’elle fonctionne en régulant. Les Chinois, eux, embrayent. Ils savent utiliser à bon escient les technologies. On l’a vu avec DeepSeek, qui est plus frugal que les modèles américains. Les trois sont complémentaires, mais nous sommes dans de tels antagonismes qu’aucune coopération n’est possible. C’est tellement dommage.
La vidéo générée par l’IA publiée Donald Trump qui illustre le futur de Gaza est affolante…
C’est un mélange d’IA, de mensonge et d’enfumage. Il ne s’agit même pas de vouloir faire quelque chose de réaliste, simplement de faire parler de lui par narcissisme. J’ai suivi les cours de l’École militaire de France et il met en place une stratégie bien connue, celle du brouillard de guerre qui vise à créer un chaos informationnel. Donald Trump fait du bruit pour nous faire ralentir. Lorsqu’on en parle, comme maintenant, nous utilisons de l’énergie qui n’est pas destinée à réfléchir aux vraies solutions. C’est du foutage de gueule. Il se moque de nous.
Comment lutter contre l’usage de l’IA dans la désinformation et les deepfakes ?
C’est le côté obscur de l’IA… Elle permet de réaliser des choses phénoménales en matière de tromperie. Je pense qu’il est bon de signifier lorsque l’on crée quelque chose avec l’IA. Il y a déjà des marquages dans les images et les vidéos produites par Grok (NDLR : l’IA d’Elon Musk) ou Open AI.
Il faut pousser ce côté éthique, mais tous ne joueront pas le jeu et il faudra développer des systèmes pour détecter l’IA. Toutefois, il y a une limite cognitive, intellectuelle. Nous ne pourrons pas passer notre temps à tout vérifier. Nous devrons déléguer cette vigilance à d’autres IA et à des humains. Le rôle des journalistes sera très important pour créer de la confiance. Celui des juristes également.
Est-ce que les risques inhérents aux mauvais usages de l’IA ne devraient pas justifier un contrôle plus strict de la part des États ?
Avec technorealisme.org, nous écoutons tout le monde, y compris les anti-IA. Nous sommes un collectif d’environ 120 personnes (professeurs d’université, juristes, philosophes, informaticiens, artistes…) et nous ne sommes pas tous d’accord. Nous devons réfléchir à la finalité de l’IA, à ses impacts écologiques et sociaux.
Je n’arrête pas de répéter qu’il faut un plan. Je suis allé au Japon en juin dernier, invité par le ministère de l’Économie du Luxembourg dans le cadre d’une mission économique passionnante. Là-bas, ils ont un plan appelé « Société 5.0« . Il n’est pas reproductible tel quel chez nous, mais nous devrions nous en inspirer.
Quelle est la nature de ce plan ?
Il se base sur trois éléments : l’environnement, l’économie et la société. Il évoque par exemple les drones, la robotique… mais aussi la restauration qui amène la convivialité et le lien social. C’est très intéressant ! Nous avons tendance à oublier ça en Europe. La restauration est vue comme secondaire par rapport à l’innovation technologique et nous avons tort.
Nous avons besoin de nous retrouver autour d’une table, de la commensalité. L’Union européenne vient de créer un groupe pour travailler sur le futur et je suis très heureux d’avoir été sélectionné pour y participer.
Globalement, à quel niveau se situe l’Europe sur les questions qui entourent l’IA ?
Nous avançons sur l’IA, comme sur l’internet des objets, la robotique, les nanotechnologies, l’informatique quantique… Nous ne sommes pas du tout à la traîne ! L’Europe a énormément d’atouts et c’est pour cela que je conseille de moins perdre notre temps avec l’esbroufe de Donald Trump et ses copains pour nous concentrer sur nos affaires.
Est-ce que les investissements financiers colossaux réalisés par la Big Tech vous semblent raisonnables ?
C’est l’histoire du Tour du monde en 80 jours, de Jules Verne. Pour arriver à Londres, ils naviguent sur un bateau à vapeur, mais n’ayant plus de combustible, ils brûlent tout ce qu’il y a à l’intérieur pour avancer. Ces dix derniers jours, toutes les plus grandes IA ont sorti une nouvelle version plus puissante. La question est de savoir ce que l’on va faire de cette puissance.
C’est un peu comme avoir une Bentley très rapide et la tuner pour qu’elle aille encore plus vite. À quoi bon ? Est-ce qu’il vaut mieux une machine qui consomme énormément d’énergie et dont la fiabilité est douteuse ou plusieurs appareils plus simples, plus robustes et qui répondent à de véritables besoins?
Comment éviter cette fuite en avant ?
RAG.lu, la start-up luxembourgeoise que j’ai créée, propose des systèmes simples et performants, calibrés selon les usages des clients. Il faut des IA à taille humaine et éviter le sentiment d’hubris, la folie liée à la démesure selon Platon. Elon Musk est l’exemple même de ce qu’est l’hubris.
Les impacts sur la bétonisation des sols, la consommation d’eau et d’électricité sont énormes
Pouvez-vous expliciter cette notion d’hubris dans l’IA ?
Dans les Shadoks (NDLR : une série d’animation française diffusée entre 1968 et 1975), pour faire voler sa fusée, le professeur Shadoko met tout ce qu’il peut à l’intérieur, histoire de voir ce que ça donne. C’est ce que l’on fait avec l’IA. On met tout dans les « data centers« , y compris des choses inutiles. Il faut donc les faire grossir jusqu’à créer des « data centers« qui consomment plus d’énergie que des villes entières. Meta en prépare un qui sera grand comme Manhattan et qui nécessitera l’énergie équivalente à celle produite par deux réacteurs nucléaires. C’est de l’hubris.
Le coût écologique de l’IA est effectivement immense. L’an prochain, elle consommera 4 % de l’énergie produite dans le monde. Le jeu en vaut-il la chandelle ?
Les impacts sur la bétonisation des sols, la consommation d’eau et d’électricité sont énormes. Nous avons du mal à nous représenter les échelles dont il est question, ce qui fait que nous avons tendance à signer des chèques en blanc. Mais les effets d’échelle nous mènent sur une courbe hyperbolique où pour augmenter un tout petit peu les performances de l’IA, nous dépensons une quantité d’énergie astronomique.
C’est ce qui a fait perdre 1 000 milliards de dollars aux capitalisations américaines quand l’IA chinoise DeepSeek a montré que l’on pouvait parvenir à de très bons résultats en étant plus astucieux et en dépensant moins. Il faut se tourner vers cette approche qui rend l’IA un peu moins bête, sans quoi, nous finirons dans une impasse.
Dans ce contexte, construire un « data center« à Bissen est une bonne idée ?
On a besoin de « data centers« , mais il faut qu’ils soient bien pensés. Il y en a de différents types. À Bissen, ce qui me questionne, c’est la consommation d’eau, l’artificialisation des sols… Pourquoi construire sur des terres agricoles quand des friches industrielles existent ?
L’IA crée-t-telle plus d’emplois qu’elle en détruit ?
C’est une question très technoréaliste. Il ne faut pas être dans le fantasme et voir au cas par cas, technologie par technologie et aire culturelle par aire culturelle. Le Luxembourg, à mon avis, a tout à y gagner. Il y a déjà beaucoup de talents ici, par exemple dans le département de Computer Science de l’université, dirigé par Christoph Schommer. Les organismes de recherche, Amazon, Google, Microsoft, attirent également de grands talents.
Quelqu’un qui travaille pour LinkedIn m’a dit que le Luxembourg était le pays du monde où il y avait le plus d’experts en IA par rapport au nombre d’habitants. Une partie de l’avenir se joue ici, donc il faut former les enfants, les adolescents pour qu’ils comprennent comment ça marche. Et surtout pas les exposer à l’IA en les laissant se débrouiller tout seuls.
Avez-vous l’impression que les politiques européennes en matière d’éducation nationale ont pris ces questions en main ?
Il faut un temps de recul, bien sûr. Les smartphones sont arrivés dans toutes les poches à partir de 2007 et il a fallu du temps pour que les responsables s’inquiètent du pouvoir qu’ils ont sur nos enfants. Je le disais dès 2012, dans ma thèse de doctorat, mais personne ne m’écoutait vraiment à l’époque.
J’étais horrifié de voir que des technologies de pointe qui pouvaient servir à mener une fusée sur la Lune étaient confiées à un enfant de 4 ans pour passer le temps. Il a fallu sept ou huit ans pour que cela devienne un sujet. ChatGPT a été créé en 2022, j’espère que cela ira plus vite. C’est le but de la coalition Beneficial AI for Children. D’ailleurs, si Luxembourg veut entrer à la coalition, il est bienvenu.
Que devrait-on faire pour les enfants et les adolescents ?
Cela fait un ou deux ans que l’on se rend compte que les enfants font leurs devoirs avec ChatGPT, que les IA sont partout. Il ne faut pas pratiquer la politique de l’autruche et utiliser l’IA dans certains contextes, en guidant les usages. Surtout, il faut s’assurer que leurs cerveaux se constituent de manière correcte, en autonomie, et cela ne peut pas arriver avec les écrans et l’IA. Et nous, les adultes, nous devons montrer l’exemple en évitant l’usage compulsif de nos smartphones.
On ne remplacera jamais les bénéfices de se retrouver à la fin de l’école pour faire du vélo ou d’aller jouer un match de foot le dimanche. Le respect du sommeil et sa rythmicité sont également très importants pour le développement intellectuel et émotionnel des enfants. L’IA et les écrans ne doivent pas empiéter dessus. Les jeunes manient très bien les smartphones, souvent mieux que nous, mais ils n’ont pas le recul critique indispensable à une utilisation en bonne conscience.
État civil. Maxime Derian a 47 ans. Il est marié et père d’une fille.
Parcours. Il réalise un double cursus en droit/sciences politiques et sociologie/psychologie à Rennes, puis un master en communication dans le département de sciences politiques de la Sorbonne avant de soutenir une thèse de doctorat en socio-anthropologie dans la même université : Le métal et la chair : anthropologie des prothèses informatisées.
Profession. Maxime Derian a travaillé au CNRS avant de rejoindre le Luxembourg où il a été employé par l’université (C2DH) et par le Centre des technologies de l’information de l’État (CTIE), via la société Actimage. Il a créé deux start-up : Heruka-AI, spécialisée dans le conseil, et RAG.lu qui propose des solutions d’IA souveraines sur mesure.
Technoréalisme. Il a cofondé il y a deux ans un mouvement, technorealisme.org, dont l’objet est de proposer un débat posé sur les IA.