De l'autonomie relative à l'absence totale de contrôle humain, les perceptions des «robots tueurs» par les États et ONG divergent. | Hello I'm Nik via Unsplash
De l'autonomie relative à l'absence totale de contrôle humain, les perceptions des «robots tueurs» par les États et ONG divergent. | Hello I'm Nik via Unsplash

L'interdiction des «robots tueurs» n'est pas pour demain

Entamées en 2017, les négociations internationales pour encadrer l'utilisation des armes autonomes sont pour le moment infructueuses.

À lire aussiCeci est le quatrième épisode de notre série «Killer robots: programmés pour tuer». Retrouvez les premiers épisodes ici.

En 2010, le roboticien Noel Sharkey et son association, l'International Committee for Robot Arms Control (ICRAC), lancent une première initiative en faveur du contrôle des «robots tueurs». L'ICRAC se rapproche ensuite de Human Rights Watch, qui organise une coalition d'ONG, Stop Killer Robots, en 2012.

En 2015, Elon Musk, une centaine de scientifiques et l'association Future of Life Institute (FLI) publient une lettre ouverte sur les dangers de l'intelligence artificielle, mentionnant notamment les armes autonomes.

Deux ans plus tard, Musk, le FLI et des personnalités en publient une deuxième, cette fois-ci focalisée sur l'interdiction des «robots tueurs». En 2018, le FLI lance un engagement sur les armes autonomes létales. Peu après, le Parlement européen vote un texte appelant à leur interdiction.

En parallèle, les Nations unies se penchent sur le problème. En 2013, le rapporteur spécial de l'ONU sur les exécutions extrajudiciaires préconise, dans un rapport présenté au Conseil des droits de l'homme, un moratoire sur les robots létaux autonomes.

La même année, des discussions multilatérales autour des «robots tueurs» sont entamées dans le cadre onusien de la Convention sur certaines armes classiques (CCAC).

En 2016, l'ONU crée le groupe d'experts gouvernementaux (GEG) sur les systèmes d'armes létaux autonomes (SALA), qui se réunit chaque année depuis 2017 à Genève, dans le cadre de la CCAC et de la Conférence du désarmement (CD). Malheureusement, ces négociations piétinent.

À la recherche d'une d'autonomie acceptable

La notion d'autonomie, fondamentale dans ce débat, est la première difficulté. Sur une machine, en l'occurrence un robot militaire, différents niveaux d'autonomie peuvent être mis en place.

Les plus répandus sont le plus faible, «human in the loop», où un être humain contrôle le robot en permance, et l'intermédiaire, «human on the loop», où le robot agit seul mais un être humain peut reprendre le contrôle à tout moment –le cas le plus controversé.

Pour ne rien simplifier, et comme l'expliquait le chercheur en informatique et philosophe Jean-Gabriel Ganascia dans un épisode précédent de cette série, un robot peut être très autonome sur certaines fonctions, comme le déplacement, et pas du tout sur d'autres, comme l'ouverture du feu.

Le niveau d'autonomie le plus fort, que l'on pourrait qualifier de «human off the loop» et dans lequel le contrôle humain ne peut être restauré sur le robot, est a priori peu intéressant pour les militaires, qui souhaitent garder la maîtrise de leurs équipements. Il pourrait être comparé à une mine qu'on ne peut plus arrêter une fois armée.

Pour la France, l'autonomie doit être comprise comme totale: lorsqu'un système autonome est activé, l'homme ne peut plus reprendre la main.
Éric Germain, membre du Comité d'éthique du numérique et de l'IA

L'IAI Harop, un missile rôdeur développé par Israel Aerospace Industries, peut être programmé pour patrouiller et attaquer de façon entièrement autonome. La reprise du contrôle par un être humain reste en principe toujours possible («human on the loop»).

«Pour la France, l'autonomie doit être comprise comme totale (“full”): lorsqu'un système autonome est activé, l'homme ne peut plus reprendre la main. Les États-Unis plaident pour une conception graduelle, l'autonomie “totale” représentant le stade ultime. Cela correspond aussi à la vision des ONG de la campagne Stop Killer Robots, qui lie les armes téléopérées actuelles (drones) aux futurs SALA. Pour elles, les armements échapperont de manière croissante au contrôle humain, et c'est pour cela qu'elles demandent l'interdiction préventive des systèmes qui pourraient dépasser un certain niveau de “contrôle humain significatif”», détaille Éric Germain, membre du Comité d'éthique du numérique et de l'IA, hébergé par le Comité consultatif national d'éthique (CCNE), qui s'exprime ici à titre personnel.

Les discussions se cristallisent principalement sur les technologies «human on the loop», capables d'une autonomie dans l'ouverture du feu. Plusieurs États et Stop Killer Robots sont favorables à une interdiction des technologies pouvant ouvrir le feu de manière autonome, même si un être humain peut reprendre le contrôle à n'importe quel moment.

D'autres pays considèrent, à l'inverse, que la supervision humaine permet d'envisager l'autonomie de la machine dans l'ouverture du feu. Là se trouve le principal désaccord.

Il faut également prendre en compte que certains États défendent les intérêts de leur industrie de l'armement, en particulier si celle-ci développe et commercialise des armes autonomes.

Un contexte international défavorable

Comme l'indiquait dans un épisode précédent Caroline Brandao, responsable du pôle droit international humanitaire à la Croix-Rouge française, le contexte actuel diffère nettement de celui de l'époque où les grandes conventions internationales sur les armements ont été adoptées, comme celle d'Ottawa sur l'interdiction des mines antipersonnel (1997).

La plupart des grandes puissances se montrent aujourd'hui davantage attachées à la défense de leur souveraineté, y compris dans le domaine militaire. C'est le cas de la Russie et la Chine depuis l'intervention en Libye de 2011, qu'elles avaient approuvée en tant que membres permanent du Conseil de sécurité des Nations unies, qui considèrent que la coalition a outrepassé son mandat en renversant Mouammar Kadhafi.

«En Europe, certains s'inquiètent de l'action d'un petit groupe de pays qui encouragent l'adoption de règles qu'ils ne s'appliqueront pas nécessairement à eux-mêmes. Pour la France et l'Europe, il est impératif de maintenir une réflexion éthique structurée et permanente qui, sur la question des SALA, doit aboutir à des recommandations techniques mais aussi à des choix politiques assumés répondant aux exigences morales d'une démocratie libérale et au contexte stratégique qui est le sien», analyse Éric Germain.

La France et la majorité des pays européens sont donc tiraillés. Pas opposés sur le principe à un encadrement des armes autonomes, ils craignent que des règles trop restrictives ne les laissent sans défense –par exemple dépourvus de systèmes dits hard kill de protection des blindés– face à des États qui s'assiéront sur celles-ci et auront toute latitude pour développer les «robots tueurs» les plus autonomes. La situation est d'autant plus préoccupante dans un contexte d'affirmation de puissances militaires non occidentales.

Lors de la dernière réunion du groupe d'experts gouvernementaux de l'ONU à Genève, en mars 2019, la France, les États-Unis et l'Australie se sont ainsi retrouvés dans le même camp que la Chine et la Russie, tous s'opposant à l'adoption d'un instrument juridiquement contraignant pour encadrer l'utilisation des armes autonomes.

En ce moment

Une usine à 6 milliards de dollars projette de produire de l'essence grâce au vent

Tech

Une usine à 6 milliards de dollars projette de produire de l'essence grâce au vent

Ou comment continuer à polluer, mais grâce à l’énergie renouvelable.

Beaucoup trop de disques durs sont détruits sans raison valable

Tech

Beaucoup trop de disques durs sont détruits sans raison valable

Ce n'est pourtant pas une fatalité.

Le virage conspirationniste de Jack Dorsey, le fondateur de Twitter

Biz

Le virage conspirationniste de Jack Dorsey, le fondateur de Twitter

Il se croit sur Facebook, ou quoi?