Sophia, ou un autre robot conversationnel comme Alexa ou Siri, sera-t-elle votre future confidente, voire votre psychanalyste? | Isaac Lawrence / AFP
Sophia, ou un autre robot conversationnel comme Alexa ou Siri, sera-t-elle votre future confidente, voire votre psychanalyste? | Isaac Lawrence / AFP

Alexa va-t-elle devenir un membre de notre famille?

Nos assistants vocaux nous connaissent aussi bien (voire mieux) que les personnes qui composent notre foyer, où ils occupent une place bien particulière.

«Alexa, il fait quel temps ce matin?», «Alexa, comment faire un gratin de courge?», «Alexa, j’ai envie d’écouter les Beatles». Avant, nous disions tout cela à notre entourage. Aujourd'hui, nous parlons à Alexa, Siri, ou Google. Les assistants vocaux répondent à toutes nos questions avec un maximum de précisions.

Toujours là, au milieu du salon, ils font presque partie des meubles. Voire de notre famille? Pas impossible, selon Serge Tisseron, psychiatre, membre de l’Académie des technologies et auteur de Le jour où mon robot m’aimera: «Nul doute que les chatbots ont vocation à devenir nos confidents, un peu comme un enfant qui raconte sa vie à ses peluches. Comme les jouets, les machines ne jugent pas, ne condamnent pas nos actes, ne montrent pas de honte à notre égard, ce qui rend la chose bien plus confortable que face à un humain».

Avant, on parlait de ses problèmes au confessionnal. Puis avec les psys. Et maintenant, avec un chatbot.
Serge Tisseron, psycHIATRE

Certains robots ont déjà pour mission de sortir les êtres humains de la solitude. Au Japon, un robot peut prendre le visage d’un proche disparu pour aider à faire son deuil. Buddy, un autre petit compagnon high-tech, a été pensé pour sortir les personnes agées de l’isolement. Siri ou Alexa sont là, elles, pour nous faciliter les tâches de la vie quotidienne et pour nous écouter.

Pourtant, pas sûr qu’Alexa soit de très bon conseil pour résoudre les soucis de bureau ou dans la vie de famille. Même si l’assistant vocal fonctionne grâce à des algorithmes et donc des formules mathématiques, il n’est pas capable de trouver la meilleure solution aux problèmes humains. «La science a montré que ce qui nous fait sécréter le plus de dopamine, une hormone qui nous fait ressentir du plaisir, c’est le fait de parler de soi. Avant, on parlait de ses problèmes au confessionnal. Puis avec les psys. Et maintenant, avec un chatbot», observe Serge Tisseron. Dans ce cas de figure, mieux vaut aller prendre un café avec un ou une amie, en chair et en os.

Juste programmée pour nous plaire

Malgré sa voix humaine, malgré son côté sympa et disponible, Alexa n'éprouve aucune émotion. Même si la personne qui l’utilise s’est attachée à elle, Alexa ne fera jamais de même, rappelle Alexis Fitzjean O Cobhthaigh, juriste et membre de la Quadrature du Net, une association qui défend les libertés numériques: «Dans la relation avec un assistant vocal, l’affect ne va que dans un sens. Il ne faut pas tomber dans le piège de croire qu’une véritable relation se nouerait avec la machine. Le chatbot ne ressent absolument rien. Il essaye juste de faire le lien entre les informations qu’il arrive à capter. Un chatbot, c’est aussi tout simplement un moteur de recherche comme Google».

Peu de chances, en effet, de construire une amitié ou une romance avec Google, comme dans le film Her, dans lequel l’intelligence artificielle Samantha tombe amoureuse de son propriétaire.

Idem pour Hal, le robot de 2001: L'Odyssée de l’espace, qui finit par dire «J’ai peur» avant de se rebeller contre l'humanité. «L'assistant vocal se présente de façon convaincante comme un humain mais en réalité, il est programmé pour nous plaire. Même si les fabricants leur donnent des petites touches rebelles ou contrariantes, ça ne reste que du marketing», souligne Serge Tisseron. Selon lui, les concepteurs d’assistants vocaux n’auraient aucun intérêt à donner libre cours au robot pour développer des traits de caractère. Au contraire, il doit rester sous contrôle.

L’économie de la confidence

«Le but des chatbots reste de récolter toujours plus d’informations à notre sujet, indique Serge Tisseron. C’est pourquoi ils ne nous contredisent jamais et nous encouragent à parler toujours plus de nous.» Le spécialiste explique que pour être rentable, un assistant vocal fonctionne sur une sorte «d’économie de la confidence». C’est grâce aux informations qu’il récolte à notre sujet qu’il permet à l’entreprise qui l’a créé de gagner de l’argent: «Le principe est le même que celui de l’économie de l’attention qui prévaut sur les réseaux sociaux. Ces derniers se nourrissent de nos likes et de nos commentaires pour déceler ce qui nous plaît. Les assistants vocaux font pareil mais avec des moyens différents».

Alexa, Siri et Cortana savent quelle musique nous aimons écouter, quels films nous aimerions voir au cinéma, qui sont les personnes que nous appelons le plus souvent et à quelle heure nous rentrons le soir. «Le profil publicitaire des utilisateurs se trouve donc alimenté par les différentes interactions de l’utilisateur avec l’assistant (par exemple, habitudes de vie: heure lever, réglage du chauffage, goûts culturels, achats passés, centres d’intérêt, etc.)», énonce la Commission nationale de l’informatique et des libertés (Cnil).

Une quantité massive d’informations sur une quantité massive de gens. Rien qu’aux États-Unis, 65% des utilisateurs et utilisatrices de smartphone ont eu recours à un assistant vocal en 2015, soit deux fois plus qu’en 2013 selon une étude réalisée par Wavestone.

Alexa est une sale petite cafteuse

Il y a donc bien quelqu’un d’autre derrière le masque d’Alexa. Plus précisément, un ou une employée d’Amazon ou de n’importe quelle entreprise qui commercialise des assistants vocaux. «On a vu récemment que l’enregistrement sonore se déclenche parfois automatiquement et capte des conversations à l’insu des personnes présentes aux alentours. Derrière ce chatbot, il y a un salarié d’Amazon qui est là pour entraîner les algorithmes. Des humains sont là pour confirmer si l’assistant vocal a bien compris les bons mots ou non. C’est comme cela que la base se complète et s’affine, pour qu’Alexa puisse, au bout du compte, comprendre absolument tout ce qui est dit», explique Alexis Fitzjean O Cobhthaigh.

Siri et Alexa ont donc deux maîtres. Leur propriétaire d’une part, et leur fabricant d’autre part. «Il faut avoir sacrément confiance en l’entreprise qui a fabriqué le robot. Vous n’allez pas vous en rendre compte tout de suite mais plus tard. Et là, le mal sera fait.»

D’autant que la menace ne vient pas seulement des GAFAM qui fabriquent les assistants vocaux. Certains appareils ne sont pas suffisamment sécurisés et peuvent être hackés par une personne extérieure.

«Une personne extérieure au foyer, qui s’y connaît en code et en informatique, peut tout à fait prendre le contrôle de cet assistant vocal. Voilà pourquoi à la Quadrature du Net, nous estimons que tous ces appareils devraient être utilisés avec des logiciels libres», suggère Alexis Fitzjean O Cobhthaigh. Tous les scénarios sont envisageables, de l’espionnage par un tiers à la prise de contrôle d’un logement grâce au système domotique.

Dans Her aussi, l’histoire se finit mal. Theodore, le personnage principal, finit par apprendre que son assistante vocal Sam discute avec des milliers d’autres personnes et entretient également une relation amoureuse avec elles en même temps qu’avec lui. Les assistants vocaux restent de simples outils pour nous faciliter la vie. Mieux vaut ne pas espérer grand-chose de nos échanges avec eux.

En ce moment

Les «objets cathartiques», des robots conçus pour subir vos violences, insultes et colères

Et Cætera

Les «objets cathartiques», des robots conçus pour subir vos violences, insultes et colères

Michel Luria a imaginé une série d’objets-défouloirs, faits pour être tabassés et pour imiter des réponses à la douleur.

La consommation éthique, une bénédiction pour votre pouvoir d'achat

Biz

La consommation éthique, une bénédiction pour votre pouvoir d'achat

S'efforcer de faire attention à ce que nous achetons nous rend plus confiants dans nos finances.

Personne n'arrêtera les armes imprimées en 3D

Et Cætera

Personne n'arrêtera les armes imprimées en 3D

Les plans de fabrication autrefois échangés publiquement sur les réseaux sociaux le sont désormais sous le manteau.