70 pays sont réunis cette semaine à Genève pour tenter d'interdire les "Robots tueurs", des armes capables de tuer sans intervention humaine. Mais il est peu probable qu'ils y parviennent, l'époque n'est pas à l'entente entre grandes puissances.
Imaginez un minidrone qui tiendrait dans la paume de votre main, équipé d’un système de reconnaissance faciale et d’une charge explosive suffisante pour faire exploser un crâne. Vous le lâchez dans la nature avec un visage programmé comme cible, il le cherchera dans une foule et l’éliminera, sans intervention humaine.
Imaginez maintenant des centaines ou des milliers de tels minidrones lancés sur une ville, sur un rassemblement, ou sur une base militaire, coordonnant tout seuls leur approche et se partageant les cibles à éliminer.
Nous ne sommes pas dans la science-fiction, dans un remake de Terminator version 2018, mais dans la réalité de la guerre de demain. De tels engins, et bien d’autres encore tout aussi terrifiants, baptisés « Robots tueurs », sont à l’étude dans les labos de recherche d’une poignée de pays dotés des moyens scientifiques et financiers, et de la volonté politique de les développer.
Bienvenue au nouveau siècle de la guerre, celui de l’intelligence artificielle, une technologie dont Vladimir Poutine disait l’an dernier que le pays qui la maîtriserait contrôlerait le monde.
Rien, pour l'instant, n'interdit ces armes. Toute cette semaine à Genève, les représentants de 70 pays sont réunis pour négocier, sous l’égide des Nations Unies, une tentative de réguler cette nouvelle génération d’équipement, les armes offensives autonomes.
L’objectif est d’arriver, d’ici à l’an prochain, à encadrer le développement et le déploiement de telles armes avant qu’elles ne deviennent une réalité sur le terrain militaire ; un peu comme on l’a fait par le passé pour les armes chimiques ou plus récemment pour les mines antipersonnel. Car, on l’oublie parfois, la guerre a aussi des règles.
Il est peu probable que cet objectif soit atteint, l’époque est peu propice à l’entente entre grandes puissances. Les principales avancées dans le contrôle des armements ont soit suivi des périodes de forte tension, soit les mobilisations d’opinion.
Sur les Robots tueurs, ça commence à peine. Des dizaines d’ONG, des centaines de chercheurs en Intelligence artificielle, et même Elon Musk, le fondateur de Tesla, ont lancé des appels en faveur d’une interdiction de telles armes. Une vidéo produite il y a quelques mois, et qui met en scène les minidrones dont je parlais, est devenue virale sur internet.
L’organisation Human Rights Watch vient pour sa part de publier un rapport qui conclue que « les Robots tueurs échouent au test moral et juridique », et devraient dès lors être interdits à titre préventif.
Mais dans le climat actuel de rivalités internationales, personne ne fera le premier pas. Chaque puissance observe ce que prépare l’autre pour éviter de se laisser surprendre. Emmanuel Macron s’est dit il y a quelques mois « catégoriquement opposé » aux armes autonomes, mais la France ne prône pas pour autant leur interdiction. Le sujet est en tous cas trop important pour être laissé aux seuls diplomates et militaires.Si
L'équipe
- Production
- Chronique