Accueil | Economie | Premier sommet sur les risques de l’IA

Premier sommet sur les risques de l’IA


Ces technologies suscitent d’immenses espoirs, mais pourraient aussi déstabiliser les sociétés.

L’UE et 28 pays ont signé hier au Royaume-Uni la déclaration de Bletchley pour un développement «sûr» de l’intelligence artificielle, lors du premier sommet international consacré à cette technologie à l’essor fulgurant.

Le premier sommet mondial sur les risques de l’intelligence artificielle s’est ouvert hier matin au Royaume-Uni, réunissant dirigeants politiques, géants de la tech et experts. L’Union européenne, la Chine, les États-Unis et une vingtaine de pays réunis à Bletchley Park, au nord de Londres, se sont mis d’accord sur «le besoin urgent de comprendre et gérer collectivement les risques potentiels» de l’IA à travers «un nouvel effort mondial, visant à garantir que l’IA est développée et déployée de manière sûre et responsable».

«Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre», a salué le Premier ministre britannique, Rishi Sunak, sur X (ex-Twitter). Face au potentiel des modèles les plus avancés, comme le robot conversationnel ChatGPT, la déclaration de Bletchley «montre que pour la première fois, le monde se réunit pour identifier le problème et mettre en avant ses opportunités», a souligné la ministre britannique de la Technologie, Michelle Donelan. Cette réunion «n’a pas pour objectif de poser les bases d’une législation mondiale, elle doit servir à tracer une voie à suivre», a-t-elle précisé.

Deux sommets internationaux sur l’IA suivront, en Corée du Sud puis en France, a-t-elle ajouté depuis l’emblématique centre de décryptage des codes de la Seconde Guerre mondiale, où Alan Turing a «craqué» celui de la machine Enigma utilisée par les nazis. Pendant deux jours, dirigeants politiques, experts de l’IA et géants de la tech y sont réunis à l’initiative du Royaume-Uni, qui veut prendre la tête d’une coopération mondiale sur cette technologie.

Le milliardaire américain Elon Musk, qui a cofondé l’entreprise pionnière OpenAI en 2015, a plaidé hier pour qu’un «arbitre indépendant» puisse «sonner l’alarme s’il a des inquiétudes» sur les évolutions de l’IA, l’une des «plus grandes menaces» qui pèsent sur l’humanité, a-t-il déclaré à la presse à Bletchley Park. Le controversé patron de X (ex-Twitter), également à la tête de Tesla et SpaceX, échangera avec le Premier ministre britannique ce soir.

La vice-présidente américaine, Kamala Harris, qui donnait un discours à l’ambassade des États-Unis à Londres, a elle aussi mis en garde contre les «menaces existentielles» de l’IA, qui pourraient «mettre en péril l’existence même de l’humanité», et à plus court terme, des démocraties. Kamala Harris, qui sera présente à Bletchley Park aujourd’hui, a également annoncé la création d’un institut sur la sécurité de l’intelligence artificielle à Washington, comme le Royaume-Uni.

Déferlement de faux contenus

Les IA génératives, capables de produire textes, sons ou images sur simple requête en une poignée de secondes, ont fait des progrès exponentiels ces dernières années et les prochaines générations de ces modèles feront leur apparition d’ici l’été. Ces technologies suscitent d’immenses espoirs pour la médecine ou l’éducation, mais pourraient aussi déstabiliser les sociétés, permettre de fabriquer des armes ou échapper au contrôle des humains, a averti le gouvernement britannique. À quelques mois d’élections cruciales comme la présidentielle américaine ou les législatives britanniques, l’IA générative fait craindre un déferlement de faux contenus en ligne, avec des montages perfectionnés («deepfake») de plus en plus crédibles.

Aujourd’hui, de hauts responsables politiques sont attendus pour la deuxième journée du sommet. Parmi eux, la présidente de la Commission européenne, Ursula von der Leyen, le secrétaire général de l’ONU, Antonio Guterres, ou la Première ministre italienne, Giorgia Meloni – seule cheffe d’État ou de gouvernement du G7 à faire le déplacement. Le Royaume-Uni espère les convaincre de créer un groupe d’experts sur l’IA sur le modèle du Giec pour le climat.

Tout l’enjeu est d’arriver à définir des garde-fous sans entraver l’innovation pour les laboratoires d’IA et les géants de la tech. L’UE et les États-Unis, contrairement au Royaume-Uni, ont choisi la voie de la réglementation. La semaine dernière, plusieurs entreprises comme OpenAI, Meta (Facebook) ou DeepMind (Google) ont accepté de rendre publiques certaines de leurs règles de sécurité sur l’IA à la demande du Royaume-Uni. Dans une lettre ouverte adressée à Rishi Sunak, une centaine d’organisations, experts et militants internationaux ont déploré que ce sommet se tienne à «huis clos», dominé par les géants de la tech et avec un accès limité pour la société civile.

Un commentaire

  1. Avant de faire bavarder des gens compétents (les développeurs de l’AI) avec des supers incompétents (les politiciens), il vaudrait mieux conseiller à ces derniers de lire le livre de Nick Bostrom qui couvfe depuis 10 ans déjà ce thème-là.