Faut-il faire entrer les machines dans le sanctuaire des droits humains? Jadis circonscrite aux cercles d'éthicien·nes, la question commence à agiter les think tanks, régulateurs internationaux et autres institutions qui travaillent à bâtir des paradigmes juridiques mondiaux.
À ce titre, l'année 2018 fut un millésime: en six mois, pas moins de six rapports ont été publiés sur la question, recensait le Center for Policy Research dans un article du 26 février dernier. Parmi ceux des différents think tanks, celui du rapporteur spécial des Nations Unies sur la liberté d'expression et celui du Conseil de l'Europe. L'année précédente, un rapport de l'eurodéputée Mady Delvaux proposait la création d'une «personnalité» juridique aux robots.
Pour autant, l'état de la technologie actuelle ne permet à aucune machine d'être éligible à un quelconque droit fondamental. Dans notre tradition philosophico-juridique, comme l'explique une vidéo du Youtubeur Kurzgesagst, la question du statut légal est intimement liée à la conscience et, plus récemment, à la perception de la douleur (comme en témoigne l'évolution des droits de la nature ou des animaux). Comment expliquer, alors, cette soudaine ébullition?
Une IA en cours de construction… mais bientôt omniprésente
En 2019, cette intelligence artificielle (IA) dite «faible», incapable de ressentir, interagit avec des êtres humains de plus en plus souvent, directement ou indirectement, de manière autonome et intelligente. Des robots nettoient nos salons; des assistants vocaux gèrent nos appareils connectés; des algorithmes décident pour nous quel avion nous devons prendre, quelle université nous allons intégrer ou quel crédit nous pouvons contracter. Aux États-Unis, des bots s'occupent de l'éducation des enfants et luttent déjà contre la solitude des seniors.
À l'heure actuelle, le mouvement semble irréversible: nous allons passer de plus en plus de temps à interagir avec des robots et des programmes «personnalités» de plus en plus étoffés. Nous allons les anthropomorphiser. Nous attacher à eux. Leur aménager une place dans nos vies. Nous allons inventer une nouvelle manière de les aimer, quelque part entre l'animal de compagnie, le coéquipier, l'aide à domicile et l'objet inanimé.
C'est en tenant compte de ces projections que le débat des droits fondamentaux s'est posé. La question de l'éthique de l'IA est une question de gouvernance de l'IA, défend le Center for Policy Research –une question qui a des répercussions sur le design même des machines: selon les personnes qui défendent les «droits des robots» comme AccessNow, en définissant dès maintenant, concrètement, le cadre moral et légal qui entoure le comportement d'une machine autonome, on oblige les gens qui les conceptualisent à tenir compte de ce cadre pour donner forme aux futurs produits et services.
Des scénarios catastrophe d'une technologie dérégulée, où chacun·e développerait et utiliserait des systèmes intelligents en toute impunité y compris si c'est motivé par de mauvaises intentions, pourraient donc être anticipés et combattus efficacement. C'est pourtant loin d'être aussi simple.
Des machines et des hommes
Par où commencer? À ce jour, dresser l'inventaire des textes qui pourraient potentiellement servir de fondement à un cadre juridique des droits des machines est un exercice assez rapide: pour les États, la Déclaration universelle des droits de l'homme est une base solide; plus récemment, les principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l'homme, avalisés en 2011, semblent plus à même de correspondre au paysage, essentiellement privé, de l'intelligence artificielle.
Pour le moment, ce qui s'approche le plus d'une magna carta des droits des machines, c'est le standard de «design aligné sur l'éthique» (EAD-1) des systèmes autonomes imaginé par l'Institute of Electrical and Electronics Engineers, la plus grande association internationale d'ingénieurs au monde.
D'autres initiatives sont en cours, comme la publication en 2017 des «principes d'Asilomar» sur l'éthique de la recherche en IA par le Future of Life Institute.
Une fois fixés ces jalons, les difficultés ne manquent pas. Elles émergent de tous côtés. Personne ne s'accorde sur la définition exacte d'une intelligence artificielle, encore moins sur une définition de l'intelligence ou de la conscience. D'autre part, l'émergence de droits des robots implique de facto celle d'obligations morales des êtres humains envers ces machines, et de droits dits «négatifs» –par exemple, un être humain qui poignarde une machine consciente nous semblerait problématique, alors que rien n'indique que la machine soit capable de ressentir la douleur.
L'IA est en réalité déjà un sujet qui intéresse les droits fondamentaux. L'intégrer au cadre juridique existant supposerait de l'obliger à respecter ces droits, dès maintenant. Une sorte de super-RGPD, qui reviendrait à légiférer avec inflexibilité contre la collecte de données de masse, contre les biais algorithmiques et les bases de données discriminatoires, contre les «boîtes noires» des réseaux neuronaux, le profilage numérique, etc. Bref, mettre hors-la-loi une majorité des services de recommandation personnalisée que nous utilisons quotidiennement, le temps qu'ils cessent d'être des dangers pour les droits fondamentaux humains.
Enfin, l'absence de consensus sur l'éthique reste un obstacle à la mise en place d'un cadre légal international. Dernier exemple en date: en 2018, le MIT Technology Review lançait l'expérience Moral Machine, au sein de laquelle chacun·e pouvait indiquer quels choix mortels devrait faire une voiture autonome confrontée à un dilemme moral.
Les résultats, publiés le 25 octobre dernier, ont de quoi donner le tournis aux théoricien·nes d'une éthique unifiée de l'IA: chaque pays, ou presque, a sa propre éthique sur la question.
Avant «Westworld», la dystopie sera celle des compagnies d'assurance
Lorsque l'on évoque la question des droits des machines, la première image qui surgit est habituellement celle d'un robot –merci Hollywood. Si l'on se figure facilement offrir des droits de citoyenneté ou de «personnalité légale» à un androïde du type Sophia (dont le créateur est par ailleurs convaincu que les robots auront des droits «d'ici 2045»), la question n'est plus si évidente pour les autres machines, alors même qu'elles acquièrent de plus en plus d'autonomie et d'intelligence.
Pourtant, elles seront omniprésentes bien avant que notre monde devienne une réplique de Blade Runner. Que faire quand une machine chargée d'effectuer une opération à cœur ouvert commettra une erreur fatale pour le patient, par exemple?
Les scientifiques et industriel·les qui développement ces machines ont déjà tranché: une lettre ouverte signée par 150 personnes en 2018 affirme que doter les machines d'un statut d'entité légale est une folie, pour au moins deux raisons convaincantes. La première, c'est que si les robots acquièrent des droits fondamentaux, ils devront être rémunérés et travailler dans des conditions décentes, ce qui serait un cauchemar d'un point de vue économique (et un non-sens d'un point de vue pratique, un robot étant par définition insensible à la douleur et à la fatigue).
La seconde, c'est qu'un robot considéré légalement comme une personne sera responsable de ses propres actes. Les fabricants d'armes létales autonomes (LAWS) seraient donc tortalement exonérés à l'avenir. Par extension, il en serait de même pour tout fabricant de toute machine placée sur ce futur régime juridique.
L'accident mortel provoqué par une voiture autonome d'Uber, en mai 2018, nous a offert une bande-annonce des casse-têtes à venir (le 5 mars, on apprenait que les juges ne considéraient pas la firme comme responsable du crash). Le futur des droits des machines ressemble bien plus à des querelles d'assureurs qu'à un soulèvement de robots conscients à la Westworld.