Ces dernières années, de multiples voix se sont élevées contre l'utilisation des «robots tueurs». Le terme, flou, désigne le plus souvent les robots militaires pourvus de capacités offensives, et plus spécifiquement ceux dotés d'une autonomie suffisante pour prendre la décision d'ouvrir le feu ou non.
De nombreuses ONG, notamment rassemblées au sein de la «Campagne Stopper les robots tueurs», militent pour l'interdiction de ces technologies, qui pourraient selon elles conduire à un risque accru de violations du droit de la guerre. Des scientifiques et des personnalités du monde économique comme Elon Musk mettent en garde contre les dangers de l'intelligence artificielle, notamment dans le domaine militaire.
La robotisation, tendance lourde de l'évolution des armées
L'utilisation de robots présente plusieurs intérêts pour les armées. Premièrement, collecter des informations (visuelles, sonores, chimiques...) sans mobiliser à temps plein un opérateur ou une opératrice humain·e. Deuxièmement, une meilleure réactivité: ainsi la riposte sur les avions de chasse est de plus en plus automatisée, car cela permet de réagir en quelques millisecondes au lieu de plusieurs secondes.
Troisièmement, une précision accrue, notamment pour le tir. Quatrièmement, une capacité à fonctionner en continu, à la différence d'un être humain. Cinquièmement, la possibilité de remplacer efficacement une personne dans un environnement dangereux ou répétitif. Autant dire qu'il apparaît difficile de s'en passer.
«L'Armée de terre, qui utilise déjà des robots d'observation et de déminage, va prochainement tester des robots-mules et mettre en service le drone tactique et de renseignement Patroller de Safran», détaille Gérard de Boisboissel, ingénieur de recherche au CREC St-Cyr (Centre de recherche des écoles de St-Cyr Coëtquidan), notamment au sein du programme de recherche pluridisciplinaire «La robotisation du champ de bataille».
«Des expérimentations ont été conduites avec la plateforme Themis de Milrem: Nexter y a intégré pour des tests un canon de 20 mm, et MBDA un missile de moyenne portée. La marine souhaite des robots sous-marins pour la protection de zones maritimes et la guerre anti-mines, ainsi que des flottilles de drones qui protégeront un bâtiment central. Dans l'Armée de l'air, on utilise déjà les drones Reaper –tout juste armés– et l'avion du futur sera possiblement lui aussi protégé par une flottille de drones.»
Une transformation de la guerre
La robotisation des armées va logiquement transformer la conduite de la guerre. À condition d'en avoir les moyens et que la nature des missions le permette, les militaires vont par exemple pouvoir utiliser des robots en première ligne, afin d'éviter d'exposer inutilement leurs troupes.
Ensuite, certains types de robots permettent l'utilisation de nouvelles tactiques, comme le «Swarming», ou formation en essaim, qui consiste à déployer un grand nombre de petits drones à des fins offensives ou défensives; une vidéo de la «Campagne Stopper les robots tueurs» avait d'ailleurs mis en scène une attaque terroriste utilisant cette technique.
Les groupes terroristes ont logiquement commencé à utiliser les mini-drones aériens de cette façon, car ils ne coûtent pas cher et peuvent faire nombre.
En ce qui concerne le respect du droit de la guerre, on peut raisonnablement supposer que les États qui le prennent en considération continueront à le faire avec les robots, et que les autres les utiliseront sans considération pour les civil·es, y compris leur propre population (répression intérieure), comme ils le faisaient déjà avec les technologies existantes.
Les exportations de «robots tueurs» autonomes chinois vers certains régimes du Moyen-Orient, évoquées récemment par le secrétaire à la défense américain, suscitent naturellement de vives inquiétudes. Par ailleurs, pour les démocraties comme pour les dictatures, ces technologies risquent de faciliter le recours aux assassinats ciblés, qui utilisent fréquemment les drones.
«En décembre 2015 à Lattaquié en Syrie, la Russie a utilisé contre l'EI en première ligne des robots armés téléopérés de type Argo et Platform-M, soit l'équivalent d'une colonne de chars non habitée», poursuit Gérard de Boisboissel.
«Ceci préfigure un premier usage de la robotique à l'avenir, où les “pions tactiques” que l'on avancera en premier seront probablement des robots contrôlés à distance. Un deuxième usage concerne le swarming (ou formations en essaim) et leur effet de saturation de l'espace. Les groupes terroristes ont logiquement commencé à utiliser les mini-drones aériens de cette façon, car ils ne coûtent pas cher et peuvent faire nombre. Une troisième évolution concerne le développement de contre-mesures par nos forces pour faire face à ces nouvelles menaces.»
L'autonomie dans l'ouverture du feu concentre les inquiétudes
Différents types de robots militaires coexistent. Ils peuvent opérer sur terre, en mer ou dans les airs. Certains n'ont pas de fonction offensives ou défensives, mais ne font que collecter de l'information (drones non armés par exemple) ou exercer une fonction de support (robots-mules).
D'autres sont capables d'attaquer: drones armés, blindés sans pilote... Parmi ceux-ci, les degrés d'autonomie sont très différents. Certains sont téléopérés –pilotés à distance par un être humain– avec une autonomie très limitée. D'autres sont dotés d'une autonomie partielle; ils sont par exemple capable de se déplacer seuls, mais pas d'ouvrir le feu seuls.
L'action militaire et la létalité sont des sujets trop importants pour ne pas être pleinement maîtrisés directement par l'homme: le chef doit contrôler.
Ceux qui suscitent le plus d'inquiétude sont dotés de capacités offensives et suffisamment autonomes pour prendre seuls la décision d'ouvrir le feu, si cette fonction a été activée par un opérateur ou une opératrice humain·e, qui peut –en principe– reprendre le contrôle à tout moment.
«Pour l'armée française, qui a une exigence éthique parmi les plus fortes du monde, l'action militaire et la létalité sont des sujets trop importants pour ne pas être pleinement maîtrisés directement par l'homme: le chef doit contrôler», analyse l'ingénieur de recherche.
«L'autonomie, notamment dans l'ouverture du feu, ne peut s'envisager sans que le chef ait défini son usage avec une limitation dans l'espace, dans le temps, avec des règles d'engagement précises et avec toujours la possibilité de reprendre la main à n'importe quel moment sur la machine. En revanche, une armée qui dispose d'une possibilité d'ouverture automatique du feu pourra s'en servir logiquement si ça lui est indispensable, notamment en cas de menaces saturantes ou de zones d'exclusion.»
Régulation ou interdiction?
La «Campagne Stopper les robots tueurs» ne cible pas l'ensemble des robots militaires. Sont pour ainsi dire dans le viseur ceux qui peuvent être configurés pour décider de manière autonome l'ouverture du feu.
Les ONG pointent notamment les difficultés qu'auront ces machines à distinguer les civil·es des militaires, un risque accru de crimes de guerre et la question de la responsabilité de ces dernier·es.
D'autres risques sont associés à ces technologies. Premièrement, la prolifération et leur utilisation par des acteurs hostiles peu respectueux du droit de la guerre, qu'ils soient étatiques ou non étatiques –groupes terroristes par exemple– afin de commettre des crimes de guerre ou des attentats. Deuxièmement, les risques de piratage des technologies utilisées, notamment par la France et ses alliés, par ces mêmes acteurs hostiles.
«À titre personnel, je pense qu'on ne peut pas interdire l'ensemble des technologies support de l'autonomie, car les programmes sont déjà sur internet en open source et sont utilisés dans le monde civil», précise Gérard de Boisboissel.
«Naturellement, on peut encadrer leur développement: l'armée française envisage par exemple l'ouverture du feu automatique mais uniquement avec le maintien d'un contrôle humain suffisant, afin de pouvoir assurer au commandement la responsabilité de l'action militaire. On peut ensuite au niveau international déterminer un cadre légal contraignant pour la licéité de ces systèmes, et faire la chasse aux usages illicites et détournés. En fin de compte, ce n'est pas l'outil en lui-même qui pose problème, mais potentiellement la façon dont le militaire l'utilise, s'il n'impose pas pour son usage des règles d'engagement précises au service de l'éthique que son armée a définie.»