À propos de l'auteur : Claude Lévesque

Catégories : International

Partagez cet article

Christian Tiffet

Claude Lévesque

Le 17 décembre 2021, faute d’unanimité, un organisme important mais peu connu des Nations unies a renoncé à produire un traité sur les « robots tueurs ».

La « Sixième Conférence d’examen des hautes parties contractantes à la Convention sur certaines armes classiques » (sic) a mis fin à ses travaux à Genève sans adopter de plan ni d’échéancier pour en arriver là.

Le sujet n’a été traité qu’en termes généraux et tout ce qui a été décidé à l’issue de cette réunion, c’est de charger un « groupe d’experts » d’en discuter pendant une dizaine de jours dans le courant de l’année 2022. (1)

La majorité des 125 délégations étaient d’accord pour interdire ou à tout le moins réglementer la production et l’usage de tels dispositifs, qui prennent le plus souvent la forme de drones capables de tirer des balles ou d’autres projectiles meurtriers sans intervention humaine.

Ces sympathiques objets sont alimentés par des algorithmes d’intelligence artificielle (IA) et des applications de reconnaissance faciale ou d’interprétation d’autres données anthropométriques.

Vide juridique

Actuellement, le développement des armes autonomes se fait dans un vide juridique à peu près total, ce qui pose, entre autres problèmes très graves, celui de la responsabilité en cas de bavures.

L’expression « robot tueur » – en anglais, on dit Killer Robot ou Slaughterbot –  a évidemment été adoptée par les adversaires de ce genre de technologie. Une appellation plus neutre ou, pourrait-on dire, plus « polie » serait « système d’armement léthal autonome » (SALA, un acronyme qui se traduit par LAWS en anglais).

Une poignée d’États qui comptent des fabricants de ces … « robots tueurs » (foin des euphémismes!), dont les États-Unis, la Russie, le Royaume-Uni et l’Inde, se sont opposés à l’idée d’un traité, d’une convention ou de tout autre instrument contraignant.

Depuis huit ans, les partisans d’un traité musclé ont échoué dans leurs efforts. En 2013, ils ont fondé la « Campagne pour stopper les robots tueurs », qui regroupe aujourd’hui près de 180 organisations non gouvernementales (ONG).

Lettre

En 2015, plusieurs vedettes de la science et de l’industrie ont cosigné une lettre réclamant l’interdiction des armes autonomes. Parmi les signataires figuraient Stephen Hawkins, Steve Wozniak, Noam Chomsky et Elon Musk. Cette lettre a été lue à l’occasion d’une conférence internationale sur l’intelligence artificielle tenue à Buenos Aires.

Le danger des « robots tueurs » paraissait surtout théorique jusqu’à tout récemment. Les choses ont quelque peu changé l’année dernière. Selon un groupe d’experts mandatés par le Conseil de sécurité des Nations unies, un drone Kargu2 a été utilisé de façon autonome en 2020 par les autorités de Tripoli contre des cibles humaines en Libye.

STM, la société turque qui fabrique ces robots volants et qui en a vendu au gouvernement libyen, nie les constats du rapport onusien, qui a été publié en 2021.

Plusieurs importantes sociétés du secteur de l’armement sont soupçonnées d’être impliquées dans le développement d’armes autonomes.

Les plus connues affirment toutes que leurs produits ne seront jamais utilisés sans intervention humaine, mais les adversaires de cette technologie doutent que les utilisateurs finaux aient ce genre de scrupule, surtout s’il s’agit d’ «acteurs non-étatiques » (entendre les nombreux groupes terroristes et criminels qui sévissent sur la planète).

Appuyer sur la gâchette

De toute façon, pourquoi concevoir des armes ayant le potentiel de décider elles-mêmes quand appuyer sur la gâchette si ce n’est pas pour qu’elles le fassent au moins à l’occasion? C’est un peu comme si les fabricants de pistolets affirmaient que leurs produits ne seraient jamais chargés avec autre chose que des cartouches à blanc.

Le gouvernement américain et certains groupes de réflexion proches du complexe militaro-industriel admettent que des robots tueurs pourraient être utilisés de façon autonome, mais seulement à des fins défensives.

Certains font cependant valoir que l’intelligence artificielle pourrait aussi aider à réduire le nombre de victimes innocentes lors de bombardements.

Selon les pacifistes qui s’opposent au développement des armes autonomes, ces dernières rendront la tâche plus facile aux gouvernements qui veulent partir en guerre, parce qu’ils n’auront pas besoin de déployer des soldats sur le champ de bataille, une éventualité de plus en plus impopulaire, ni même d’embaucher des spécialistes pour actionner les drones de guerre à très grande distance comme cela se fait depuis plusieurs années.

Le secrétaire général de l’ONU, Antonio Gutteres, a plusieurs fois plaidé pour que les États membres accouchent d’un traité sur les armes autonomes.

La plupart des grandes organisations de défense des droits fondamentaux ont fait de même. On peut mentionner le Comité international de la Croix-Rouge, Amnesty International et Human Rights Watch, entre autres.

« Personne ne veut vivre dans un monde où des machines sont utilisées pour cibler des êtres humains sur la base de capteurs et de logiciels », a déclaré Steve Goose, directeur de la division Armes à Human Rights Watch, à l’issue de la rencontre de Genève en décembre.

« La révulsion du public provoquée par la déshumanisation numérique et par la prolifération des systèmes d’armes autonomes finira par faire avancer un traité international pour éviter de perdre un contrôle humain significatif sur l’usage de la force. »

Autre forum

Étant donné que les « conférences d’examen » prévues par la « Convention sur certaines armes classiques» semblent incapables d’aboutir à une action déterminante, les adversaires des « robots tueurs » promettent de porter leur action dans un autre forum, comme d’autres activistes l’ont fait avant eux, non sans difficultés, dans le dossier des mines antipersonnel.

Il y a d’ailleurs un parallèle à établir entre les deux catégories d’armes. Qualifiées d’«armes des lâches», les mines antipersonnel sont déposées au ras du sol dans des lieux où des « ennemis » (et bien d’autres personnes, on le sait maintenant!) sont susceptibles de poser le pied et explosent sans qu’aucun être humain n’ait eu besoin de les actionner.

Elles ont été les précurseurs de très basse technologie des robots tueurs, qui eux appartiennent à ce qu’on a convenu d’appeler la « haute » technologie.

Dans le même ordre d’idées (celui des idées martiales et déprimantes), le New York Times a publié, en décembre 2021, les résultats d’une vaste enquête sur les opérations aériennes menées par les Américains au Moyen-Orient au cours de la dernière décennie.

Quels sont ces résultats ? Au moins un millier de civils ont été tués dans ces opérations, contrairement aux prétentions du Pentagone, qui n’a jamais blâmé qui que ce soit ni exercé de mesures disciplinaires.

Là aussi, le parallèle est assez évident. Il s’agit de la distanciation entre celui ou celle qui actionne la gâchette et la cible (ou la victime, si vous préférez). Au cours de la décennie en question, les combattants américains des guerres « antiterroristes»  d’Afghanistan, du Pakistan, d’Irak, de Syrie et de  Libye, moins nombreux qu’au cours des années précédentes, étaient en grande partie des aviateurs ou des « pilotes» de drones.

C’est le propre de la guerre asymétrique.

1. À Genève, pas d’entente sur des négociations sur l’interdiction des robots tueurs, dépêche de l’Agence France-Presse, 18 décembre 2021.

Les sites Internet de Human Rights Watch, de Campaign to Stop Killler Robots, du Comité international de la Croix-Rouge, de l’American Entreprise Institute, de l’Organisation des Nations Unies, du Guardian et d’Air Force Magazine ont été consultés pour la rédaction de cet article.

À propos de l'auteur : Claude Lévesque

Laisser un commentaire