Le «comportement machine» aspire à observer les algorithmes dans leur environnement naturel. | Mark Ralston / AFP
Le «comportement machine» aspire à observer les algorithmes dans leur environnement naturel. | Mark Ralston / AFP

Il faut étudier les machines comme on étudie les animaux

Une équipe de recherche suggère de créer une nouvelle branche des sciences comportementales propre aux IA, comparable à l'éthologie.

Les systèmes algorithmiques n'ont aucun équivalent sur Terre, c'est précisément ce qui fascine l'humanité.

Dans son célèbre essai de vulgarisation Superintelligence, Nick Bostrom réfutait notre tendance à anthropomorphiser l'intelligence artificielle –en considérant le scénario du Skynet «cruel» de Terminator, par exemple.

Le philosophe nous encourageait plutôt à envisager les machines autonomes de la même façon que nous considérons les insectes, c'est-à-dire comme une classe dont nous percevons instinctivement qu'elle pense différemment.

C'est précisément ce que propose aujourd'hui un groupe de scientifiques. En avril 2019, Iyad Rahwan, directeur du Max Planck Institute for Human Development et fondateur du Center for Humans and Machines (Moral Machine, l'expérience pour savoir qui une voiture autonome doit tuer en priorité, c'est lui) réunissait un groupe de vingt-deux chercheurs et chercheuses pour proposer de défricher un nouveau champ de recherche, le «comportement machine». Gage de respectabilité, leur manifeste paraît dans la revue Nature.

Approche transdisciplinaire

L'idée initiale est d'ouvrir l'étude des intelligences artificielles à d'autres scientifiques que celles et ceux qui les programment, souvent trop occupé·es à en améliorer l'efficacité pour en évaluer d'autres aspects.

Plus ces systèmes gagnent en complexité, moins leur impact sur le monde extérieur est prévisible. Pour éviter que nous soyions un jour dépassé·es par ce que nous concevons, Iyad Rahwan plaide en faveur d'une approche holistique: en appelant d'autres disciplines à la rescousse, notre connaissance des machines n'en sera que plus solide.

La méthodologie s'inspire des «quatre questions» de l'éthologue Nikolaas Tinbergen, qui cherchent à circonscrire le plus efficacement possible la nature d'un comportement.

Des scientifiques de différentes spécialités (biologie, éthologie, anthropologie, sociologie, etc.) étudieraient empiriquement la relation que développent les machines avec les êtres humains une fois qu'elles sont opérationnelles, avec l'espoir d'en tirer des enseignements sur la meilleure manière de penser les IA du futur.

Pour Rahwan, l'enjeu dépasse la simple curiosité scientifique. Il explique à Quanta Magazine qu'«aujourd'hui, on gère les choses comme elles viennent. Les entreprises construisent un produit, le lancent, puis disent: “Oh mince, il y a de la désinformation partout”».

«N'y aurait-il pas une analogie que nous pourrions utiliser pour anticiper ces problèmes [technologiques] qui fragilisent la démocratie, la liberté d'expression ou d'autres valeurs cardinales?», s'interroge-t-il. Piocher dans le vivant pour résoudre l'algorithmique? Ça paraît évident et pourtant, ça n'existait pas encore.

En ce moment

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Et Cætera

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Le récap' du jour.

Google aspire les données médicales de millions de personnes à leur insu

Et Cætera

Google aspire les données médicales de millions de personnes à leur insu

Dans le cadre du «Projet Nightingale», des hôpitaux lui transmettent leurs données sans en informer les patient·es.

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

Et Cætera

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

La mesure n'est que l'une des nombreuses contraintes que les Japonaises doivent respecter au travail.