Accueil | A la Une | Armes et intelligence artificielle : «Un gros chantier complexe»

Armes et intelligence artificielle : «Un gros chantier complexe»


Le ministre François Bausch (au premier plan) et Ben Fetler, responsable cyber à la Défense, ont dévoilé la position du ministère de la Défense sur les armes autonomes qu’ils veulent légiférer et encadrer. (Photo : hervé montaigu)

Après 15 mois de travail, le ministère de la Défense a présenté, hier, sa liste de recommandations afin d’établir sa position sur l’usage controversé des systèmes d’armes autonomes.

Il est temps d’agir et de règlementer. Tel était le mot d’ordre de François Bausch, ministre de la Défense, et de Ben Felter, responsable cyber à la Défense, qui ont mené une conférence de presse, hier, sur les systèmes d’armes autonomes (SAA). Si ces armes sont «capables d’identifier, de sélectionner et de déployer une force contre une cible sans intervention humaine», c’est grâce aux systèmes d’intelligence artificielle (IA) dont elles peuvent être équipées. Dirigé par un algorithme, un drone peut faire du suivi de cible, du comptage des foules, de la détection thermique ou de la reconnaissance faciale sans pilote. Idem pour une mitraillette qui peut se déclencher et arrêter son tir sans intervention humaine.

Pour l’instant, ces modèles d’armes autonomes sont peu répandus. À titre d’exemple, les drones utilisés en Ukraine sont des modèles disponibles dans le commerce et les États-Unis sont, eux, en phase de test de drones pilotés par IA. «Mais nous sommes seulement au début de cette technologie», prédit François Bausch. «On discute aujourd’hui d’intelligence artificielle « pas encore intelligente », car l’intelligence va venir au cours du développement dans les prochaines années.»

Alors, face à ce potentiel déploiement d’armes sans pilote, sans humain, la discussion porte également sur les préoccupations éthiques et juridiques causées par ces équipements. Qui du soldat ou du drone est responsable en cas de dégâts collatéraux sur des civils? Quels sont les risques que l’usage de la force soit dénué de raison humaine? Quel est le pouvoir de l’homme pour contredire une IA?

Pas de réglementation internationale

Face à ce lot de questions, le droit international humanitaire, qui exige une décision humaine, n’a pas encore les réponses. Il n’existe aucune réglementation, malgré le fait que le débat soit sur la table des Nations unies à Genève depuis 2019. Bien que le processus ait été stoppé par le Covid-19, la crise sanitaire n’est pas la seule raison de «l’endormissement» de la discussion, d’après Ben Felter. «Géopolitiquement, il y a des tensions et on ne voit pas encore de solution claire car de grandes nations ne se sont pas positionnées.» C’est le cas des États-Unis, dont le non-positionnement est bien réfléchi aux yeux du ministre de la Défense : «Il y a eu beaucoup de tensions entre les pays qui développent ces systèmes, qui ont une industrie d’armement assez substantielle et qui voulaient réguler très peu, pour ne pas dire pas du tout». La Russie bloque aussi les débats, arguant que ces armes respectent par défaut les droits internationaux, «mais on voit sur le terrain que ce n’est pas toujours le cas».

Malgré tout, le Grand-Duché a décidé d’agir afin que la situation se débloque. En juillet 2022, un groupe de travail a été créé afin d’établir la position du Luxembourg et d’élaborer une proposition pour définir et limiter les actions des SAA. «Un gros chantier complexe» dont le résultat a été dévoilé, dans les grandes lignes, 15 mois plus tard par François Bausch et Ben Felter.

«On se pose les questions avant»

«Il y avait deux points forts : établir une définition et mettre l’humain en haut de l’échelle de la responsabilité», insiste le ministre. Le rapport repose également sur la distinction entre les armes autonomes, ne pouvant respecter le droit international, et les armes partiellement autonomes, qu’il est possible de réguler. La liste de huit recommandations, réalisée avec des experts internationaux en IA, comprend aussi le contrôle de la recherche académique sur ces systèmes d’armes autonomes, ainsi que la sensibilisation des instituts à propos des possibles dérives. «Ceux qui inventent ces technologies dans le civil ne se rendent pas compte tout de suite que cela peut être utilisé pour tuer des gens.» Afin d’éviter que ces technologies tombent dans «des mains non autorisées et malveillantes», un comité éthique permanent va également être créé.

Du côte de l’armée, elle ne dispose pas encore de telles armes. «C’est pour cela que l’on se pose les questions avant d’avoir l’intention de faire une telle acquisition ou de développer de tels systèmes», explique Ben Felter. De «nature optimiste», ce dernier croit en une avancée du droit international, mais reste lucide. «Avec la diplomatie, on ne sait jamais de quel côté ça peut aller, ça peut aller vite ou lentement d’un côté comme de l’autre.»

PUBLIER UN COMMENTAIRE

*

Votre adresse email ne sera pas publiée. Vos données sont recueillies conformément à la législation en vigueur sur la Protection des données personnelles. Pour en savoir sur notre politique de protection des données personnelles, cliquez-ici.