Les algorithmes et les intelligences artificielles, faut-il encore le rappeler, sont partout, de plus en plus efficaces et de plus en plus faciles à mettre en place.
Dans nos fils Facebook, nos timelines Twitter, nos recommandations Netflix, nos playlists Spotify, avec ou sans l'intervention d'un être humain, les formules mathématiques et équations complexes décident de ce que nous lisons, écoutons, regardons.
Elles décident également de ce que nous payons. Si vous avez voyagé ces dix dernières années, vous l'avez sans doute remarqué: les prix des billets d'avion comme ceux des chambres d'hôtel varient selon des critères sibyllins, que certaines personnes arrivent parfois à exploiter à leur profit.
Problème: comme le rappelle la Technology Review du MIT, ces intelligences artificielles, qui décident des prix sur de nombreuses plateformes de vente en ligne, commencent à devenir vraiment intelligentes –au point de battre des êtres humains au très complexe jeu de go, comme AlphaGo, programmé par Google.
Apprentissage discret de la collusion
L'une des raisons de cette nette progression du «quotient intellectuel artificiel» vient de la manière dont les homo sapiens ont appris à ces robots à réfléchir, ou plutôt comment la méthode dite du «reinforcement learning» les a motivés à mieux le faire. En associant un but à un système de récompenses et de malus, cette facette du machine learning pousse l'IA à tester diverses solutions pour mieux faire.
Une équipe de recherche de l'Université de Bologne, en Italie, a découvert qu'en mettant deux de ces intelligences artificielles en «compétition» sur un même marché, elles avaient fini à force d'essais et d'erreurs par s'entendre sur les prix. Oui: les intelligences artificielles peuvent former des cartels, et les laisser contrôler un marché en le pensant libre et pur serait une vraie bêtise.
«Le plus inquiétant est que ces algorithmes ne laissent aucune trace d'action concertée, ont expliqué les scientifique dans leur publication. Elles apprennent la collusion simplement par essai et erreur, sans connaissance préalable de l'environnement dans lequel elles opèrent, sans communiquer entre elles et sans qu'on ne leur apprenne spécifiquement cette collusion.»