Verrons nous demain des chars autonomes comme ce prototype américain présenté dans un salon d’armement en 2018 ? ©AFP - Arthur Nicholas Orchard / Hans Lucas / Hans Lucas via AFP
Verrons nous demain des chars autonomes comme ce prototype américain présenté dans un salon d’armement en 2018 ? ©AFP - Arthur Nicholas Orchard / Hans Lucas / Hans Lucas via AFP
Verrons nous demain des chars autonomes comme ce prototype américain présenté dans un salon d’armement en 2018 ? ©AFP - Arthur Nicholas Orchard / Hans Lucas / Hans Lucas via AFP
Publicité
Résumé

Une conférence internationale destinée à tenter d’interdire les armes autonomes s’est ouverte à Genève, mais sans grand espoir d’aboutir en l’absence de confiance et de volonté des principales puissances.

En savoir plus

Un « robot tueur », c’est une arme létale autonome, c’est-à-dire qui décide, sans intervention humaine, d’ouvrir le feu. Il n’y en a pas en service aujourd’hui, mais les progrès technologiques sont tels que la question de leur mise en service se posera bientôt.

Depuis 2014, des discussions ont lieu pour tenter de les interdire ; Hier une nouvelle conférence internationale réunissant 125 États s’est ouverte à Genève sous l’égide des Nations Unies ; mais, malgré une campagne internationale qui a le soutien de nombreux pays et ONG et même du Secrétaire Général de l’ONU, il y a peu de chances que les discussions aboutissent.

Publicité

A la veille de la conférence, le délégué des États-Unis, Josh Dorosin, s’est simplement prononcé pour un « code de conduite » non contraignant. Selon lui, c’est un moyen d’encourager un « comportement responsable » des États.

Mais les militants anti-robots-tueurs rejettent cette position à leurs yeux hypocrite, et réclament l’interdiction pure et simple dans le droit humanitaire internationale, de ces armes qui décideront de la vie et de la mort d’êtres humains.

Le développement de l’intelligence artificielle et d’autres technologies associées rend possible une transformation des armements comparable à l’apparition de l’aviation ou à la prolifération nucléaire. Elle permettra l’apparition d’armes programmées puis laissées autonomes dans la décision d’ouvrir le feu sur une cible.

Actuellement, un drone armé, même à des centaines de kilomètres de distance, est opéré par un pilote qui décide d’ouvrir le feu. Un pilote de drone français a ainsi raconté par le détail, au podcast « Le Collimateur » de l’Institut de recherche stratégique de l’école militaire (IRSEM), une mission au Mali. Il y a plusieurs opérateurs qui croisent les informations et n’ouvrent le feu qu’après une décision d’un niveau supérieur. Ce qui n’empêche pas les bavures ou les victimes collatérales, on le sait bien, mais il y a des garde-fous humains.

Si les armes deviennent autonomes, les préoccupations éthiques, le doute, le respect des règles de la guerre, déjà mis à mal dans le feu de l’action, seront donc automatisés et les humains déresponsabilisés. C’est ce que contestent les avocats de l’interdiction.

Les chances d’aboutir à une interdiction sont très faibles en ce moment, dans un climat de tensions internationales. Pour qu’un traité fonctionne, il faut un minimum de confiance : « trust and verify » (faites confiance mais vérifiez) disaient les négociateurs du désarmement de la guerre froide.

C’est beaucoup plus difficile à l’ère numérique, surtout quand la confiance n’existe pas. Les Américains affirment qu’ils ne veulent pas être les premiers à introduire des armes autonomes, mais si leurs adversaires le font, ils suivront pour ne pas leur laisser l’avantage. Chinois ou Russes diront sans doute la même chose ; et que dire de la Turquie, de l’Iran ou de la Corée du nord, potentiels détenteurs de la technologie.

La question est morale ; elle est légale car qui est responsable d’un crime de guerre si l’action est menée par une arme autonome ? Elle est aussi philosophique sur le rapport entre l’humain et la machine. Un sujet vertigineux, qui mériterait de mobiliser les opinions publiques.