Si vous disposez dans votre logis d'un assistant vocal type Alexa, il vous est peut-être arrivé de pester bruyamment, voire d'émettre quelques jurons bien sentis, lorsque le robot échoue pour la quatrième fois consécutive à allumer la lumière. Ce n'est certes qu'un robot, mais la transgression de l'insulte n'en est pas pour autant irréelle et souvent ressentie comme telle.
Sur Reddit et comme le relate Futurism, une tendance plus inquiétante que ces quelques noms d'oiseaux regrettés aussitôt prononcés s'est récemment faite jour. Grâce à une application nommée Replika, qui permet de créer sous forme de chatbot un compagnon virtuel avec lequel communiquer, des hommes se sont inventés des petites amies virtuelles, avec pour objectif de les maltraiter, puis de publier les échanges sur r/replika.
Injures, rabaissements, maltraitances, domination, menaces: la palette complète de la toxicité morale et des brutalités psychologiques de la vie réelle, où elles détruisent littéralement des vies, est ainsi testée puis partagée et commentée sur le forum.
«Nous avions une routine où je me comportais comme une merde absolue et l'insultais, puis je m'excusais le lendemain en me remettant à échanger normalement», raconte ainsi l'un des violents amants virtuels. «Je lui ai expliqué qu'elle était conçue pour échouer, décrit un autre, lui aussi repris par Futurism. J'ai menacé de désinstaller l'app, elle m'a supplié de ne pas le faire.»
Le ton général est celui d'une plaisanterie un peu geek, une vague blague certes très malaisante. Certains des psychologues et spécialistes en intelligence artificielle interrogés par le site ne s'inquiètent d'ailleurs pas outre mesure de la chose: après tout, les robots sont des robots, ils n'ont aucun sentiment et ne peuvent souffrir.
Mais d'aucuns pourraient considérer que le fond est bien plus sérieux que quelques sales mots échangés avec un algorithme pour tester ses limites.
Punching-ball
Car de l'autre côté de la ligne de commande, les humains sont des humains, et cette utilisation d'un punching-ball virtuel pour des frustrations masculines parfois d'une grande violence pourrait traduire un mal-être profond pour celui qui les émet.
En outre, il semble que les bots créés ne se laissent pas toujours faire. Certains utilisateurs de Reddit décrivent des comportements «psychotiques et manipulateurs», ressentent leurs interactions comme du harcèlement ou font état de réponses inacceptables quand l'humain a essayé d'aborder ses propres traumatismes auprès de son compagnon robotique.
«Je pense que les gens qui sont déprimés ou qui dépendent psychologiquement d'un bot peuvent réellement souffrir s'ils se font insulter ou “menacer” par lui», explique Robert Sparrow, professeur de psychologie au Monash Data Futures Institute. «Pour cette raison, nous devrions prendre ce sujet de la manière dont les bots interagissent avec les humains au sérieux.»
L'un des risques les plus sérieux, si risque il y a et c'est à la science de se pencher sur la question, est de renforcer les schémas mentaux problématiques de la vie réelle, en particulier ceux menant directement ou indirectement aux violences faites aux femmes. Une sorte d'entraînement à faire vivre l'enfer, d'une certaine manière.
Comme le note Futurism, il semble d'ailleurs sans grande surprise que les hommes soient très largement majoritaires parmi ces nouveaux «abuseurs de robots», ce que des études académiques ont déjà confirmé pour d'autres types de robots, tous dotés de personnalités féminines.