Plusieurs milliers de chercheurs et personnalités, dont le célèbre astrophysicien britannique Stephen Hawking, ont lancé mardi un appel pour l’interdiction des armes offensives autonomes ou «robots tueurs», alertant notamment sur le danger d’erreurs de cible et d’usages terroristes.
«Les armes autonomes choisissent et frappent des cibles sans intervention humaine (..) elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires», relèvent les signataires dans une lettre ouverte, publiée à l’ouverture de la Conférence internationale sur l’intelligence artificielle (IJCAI) à Buenos Aires.
Ces robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain – à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire – inquiètent de plus en plus l’ONU, les scientifiques et défenseurs des droit de l’homme. Deux réunions d’experts se sont déjà tenues à Genève sur ce sujet dans le cadre de la Convention de l’ONU sur certaines armes classiques.
Leurs détracteurs redoutent qu’ils ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.
D’un point de vue militaire, ces armes du futur présentent l’avantage de réduire le risque de pertes humaines sur le champ de bataille, mais elles «abaissent aussi le coût d’un engagement au combat» et laissent présager une nouvelle course aux armements, relèvent les signataires.
Imminent
«La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir», ajoutent les nombreux chercheurs et professeurs signataires, de Harvard, Berkeley et Cambridge à Liège (Belgique), Paris ou l’université Humboldt de Berlin.
Le célèbre entrepreneur de hautes technologies Elon Musk – patron de Tesla (voitures électriques), SolarCity et SpaceX (technologie spatiale) – le Prix Nobel de Physique Frank Wilczek, le confondateur d’Apple Steve Wozniak et le cofondateur de Skype, Jaan Tallinn, figurent aussi parmi les signataires.
Toby Walsh, professeur d’Intelligence artificielle à l’Université New South Wales, en Australie et signataire de l’acte, rappelle que «toutes les technologies peuvent être utilisées pour le bien ou pour le mal». Pour Toby Walsh, le développement de l’IA doit se poursuivre mais de manière règlementée, car les applications civiles sont multiples, mais il faut l’accompagner d’une législation stricte.
D’après lui, les entreprises d’armement des grands pays développés ont considérablement avancé dans le développement d’applications militaires.
Ricardo Rodríguez, chercheur en IA de l’Université de Buenos Aires, minimise le risque. «Hawking croit que nous sommes au bord de l’Apocalypse avec la robotique et qu’au final, l’intelligence artificielle va entrer en concurrence avec l’intelligence humaine. On est loin de faire des robots belliqueux assassins», soutient l’Argentin, un des organisateurs de la conférence de Buenos Aires.
«Il y a vingt ans, on parlait des risques du clonage, regardez où nous en sommes aujourd’hui», rappelle-t-il.
Contrairement aux armes nucléaires, dénoncent les chercheurs dans leur lettre, ces armes «ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (…) Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (..) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc..»
L’intelligence artificielle «offre un grand potentiel pour le bénéfice de l’humanité», mais elle ne doit pas être «discréditée» par la conception d’armes offensives, insistent-ils. Une interdiction d’armes qui n’existent pas encore ne serait pas sans précédent. En 1998, les lasers aveuglants ont été interdits avant d’avoir été développés à grande échelle.
La mise en garde des scientifiques a été envoyée à l’ONU.
AFP