Sans contrôle ni législation, l'usage inconsidéré de killer robots pourrait, en cas de conflit, empirer le sort des populations civiles. | Omar Haj Kadour / AFP
Sans contrôle ni législation, l'usage inconsidéré de killer robots pourrait, en cas de conflit, empirer le sort des populations civiles. | Omar Haj Kadour / AFP

Les «robots tueurs» seront-ils responsables de crimes de guerre?

La perspective d'armes autonomes utilisées pour perpétrer des violations du droit de la guerre préoccupe une partie de la société civile.

Ceci est le deuxième épisode de notre série «Killer robots: programmés pour tuer». Retrouvez le premier épisode ici.

Le développement de robots armés dotés d'une capacité autonome d'ouverture du feu –pour l'instant minoritaires parmi les robots militaires– soulève plusieurs problèmes. Et notamment concernant le respect du droit de la guerre, ou droit international humanitaire, dont les bases ont été posées par les conventions de Genève.

Ces conventions et des traités ultérieurs posent un certain nombre de principes que les belligérants sont censés respecter dans le cadre d'un conflit armé: la distinction entre populations civiles et militaires, la précaution et la proportionnalité dans l'usage de la force, l'interdiction des maux et souffrances inutiles, ou encore la loyauté dans la conduite des combats.

«Un défi juridique et éthique»

Un robot armé doté d'une capacité autonome d'ouverture du feu peut-il distinguer efficacement un·e civil·e d'un·e militaire –une fois que cette capacité a été activée et paramétrée par l'armée qui l'utilise? Quid d'un combattant irrégulier qui ressemble à un civil? Peut-on lui faire confiance pour employer la force avec précaution et proportionnalité?

En l'état actuel de la technologie, la réponse est plutôt négative: on ne sait pas encore comment enseigner le respect du droit de la guerre à un algorithme, même si des recherches sont en cours. Un robot armé dont la capacité d'ouverture autonome (ou automatique) du feu a été activée ne devrait donc pas être utilisé à proximité de civil·es tant que l'intelligence artificielle sera incapable d'effectuer ce discernement.

Un autre problème concerne la responsabilité: en cas de crime de guerre perpétré par une machine, qui est responsable? Le robot? Le commandement militaire? La firme qui l'a conçu et fabriqué? L'État ou le groupe qui l'a employé?

«Les armes autonomes constituent un défi juridique et éthique. Dès la conception de la machine, l'entreprise fait appel à des programmeurs, à des juristes, puis cette arme est confiée à une armée [ou une société militaire privée, ndlr]. En cas d'incident, ces acteurs tenteront de rejeter la faute sur l'autre. Or, en droit de la guerre, chaque maillon de la chaîne est responsable. Par ailleurs, qui jugera? Les tribunaux internationaux (Cour pénale internationale par exemple) seront-ils compétents? Faut-il modifier le droit pénal international? Ces questions doivent être tranchées en amont», explique Caroline Brandao, responsable du Pôle droit international humanitaire (DIH) à la Croix-Rouge française.

La population civile en première ligne

Une deuxième question concerne l'usage qui sera fait de ces technologies spécifiques (robots militaires armés dotés d'une capacité autonome d'ouverture du feu), qui varie grandement selon les acteurs.

Si des groupes terroristes parviennent à s'en emparer, que ce soit via le détournement de technologies civiles ou l'acquisition de technologies militaires, ils les utiliseront notamment pour commettre des attentats contre des civil·es.

Les régimes autoritaires, qui ont assez peu de considération pour le droit de la guerre, pourront s'en servir pour commettre des crimes de guerre ou des crimes contre l'humanité (massacre, nettoyage ethnique, génocide...), afin de terroriser ou d'éliminer des populations civiles, y compris au sein de leur propre population (répression intérieure). Ils le faisaient certes déjà avec leurs équipements actuels, mais l'importance des tueries pourrait être accrue.

On peut faire le parallèle avec l'usage des drones. En théorie, ces derniers peuvent apporter une précision accrue, une meilleure distinction entre combattants et non-combattants, une meilleure proportionnalité dans l'usage de la force.
Caroline Brandao, responsable de la diffusion du droit international humanitaire (DIH) à la Croix-Rouge française

On peut aussi redouter le piratage des technologies utilisées par les pays démocratiques par des acteurs hostiles (étatiques ou non) qui souhaiteraient s'en prendre aux civil·es. Pour les démocraties, la technologie est d'ailleurs à double tranchant: elle peut permettre un meilleur respect du droit de la guerre, ou bien accroître ses violations en les facilitant.

Même leur emploi dans les situations envisagées par les armées occidentales –contre une attaque saturante ou dans le cadre d'une zone d'exclusion par exemple– pourrait être source de «dommages collatéraux» si des civil·es venaient à être présent·es à proximité.

«Un exemple concret, c'est le SGR-A1, une arme semi-autonome qui peut se déclencher seule, déployée par la Corée du Sud à sa frontière [le SGR-A1 ne faisant pas la distinction entre civils et militaires, ndlr]. Il n'est pas concevable de de la déployer au milieu de civils. On peut faire le parallèle avec l'usage des drones. En théorie, ces derniers peuvent apporter une précision accrue, une meilleure distinction entre combattants et non-combattants, une meilleure proportionnalité dans l'usage de la force. Néanmoins, la manière dont ils ont été utilisés au Yémen et au Pakistan [jusqu'à 1.400 civil·es tué·es], fait qu'ils peuvent avoir l'effet inverse [conduire à des violations accrues du droit de la guerre]», poursuit Caroline Brandao.

Des négociations internationales embourbées

Face aux dangers potentiels de certaines armes autonomes, plusieurs ONG, notamment réunies autour de la coalition «Campagne Stopper les robots tueurs», appellent à interdire les équipements militaires dotés d'une capacité autonome de sélection des cibles et d'ouverture du feu.

D'autres organisations, comme la Croix-Rouge, insistent notamment sur la nécessité de définir et de maintenir un contrôle humain sur les armes autonomes, et de bannir les usages de ces technologies qui sont incompatibles avec le respect du droit de la guerre, tels que le déploiement au milieu de civils d'une technologie autonome ne faisant pas la distinction entre civil·es et militaires (comme le SGR-A1 sud-coréen).

Si l'ONU se penche sur le problème depuis 2013, les négociations semblent aujourd'hui dans l'impasse. Des États à la pointe du développement d'armes autonomes, comme la Chine, sont peu disposés à restreindre leur utilisation. En revanche, le Parlement européen a réclamé leur interdiction en septembre 2018.

«Pour certains types d'armes, des coalitions d'ONG sont parvenues à faire adopter des traités: convention d'interdiction sur les mines antipersonnel (1997), convention sur les armes à sous-munitions (2008)», précise Caroline Brandao.

«Mais ces dernières années, on a constaté une crispation croissante des États sur ces questions. L'autre problème, c'est que l'on a du mal à définir les armes autonomes, la notion de contrôle humain, de prédictibilité de l'arme... On essaye donc d'avancer malgré tout, faire appel à d'autres formes de régulation, comme le droit souple, des guides interprétatifs, etc. Face au rôle croissant du secteur privé, il faut aussi dialoguer avec les entreprises et continuer à sensibiliser tous les acteurs au respect du droit de la guerre, malgré cet environnement international peu favorable», conclut-elle.

En attendant, on voit hélas mal ce qui pourrait réellement empêcher les États –ou des acteurs non institutionnels et mal intentionnés– d'utiliser les armes autonomes comme bon leur semble.

En ce moment

En Finlande, les prix de l'électricité sont désormais négatifs

Biz

En Finlande, les prix de l'électricité sont désormais négatifs

Une aubaine pour la population, mais pas pour les fournisseurs.

Sur Google, bientôt des pubs entièrement créées par l'intelligence artificielle

Tech

Sur Google, bientôt des pubs entièrement créées par l'intelligence artificielle

Encore un métier qui pourrait être remplacé: celui de créa.

Pourquoi les lancements de fusées sont une catastrophe pour la biodiversité

Tech

Pourquoi les lancements de fusées sont une catastrophe pour la biodiversité

Deux spécialistes sonnent l'alerte, alors que nous envoyons de plus en plus d'objets dans l'espace.