L'intelligence artificielle n'est pas à la pointe dans tous les domaines. Selon un rapport de l'Unesco, les assistants vocaux boostés par l'IA, dont beaucoup ont recours à des voix féminines, renforcent les stéréotypes nuisibles liés au genre.
Qu'ils se prénomment Google Assistant, Siri ou Alexa, ces agents conversationnels répondent à vos moindres désirs à tout moment, via vos appareils connectés. Leur utilité ne cesse de croître: ils peuvent vous permettre d'écouter de la musique sur vos plateformes préférées, vous lire des recettes de cuisine ou encore régler la température de votre logement.
L'enquête rédigée par les Nations unies s'est penchée sur le caractère féminin de ces bras droits virtuels, qui conditionnerait leurs propriétaires à se reposer sur des perceptions désuètes et préjudiciables aux femmes, à travers un prénom et une voix féminine.
Assistantes dociles et désireuses de plaire
En allant dans le détail, le rapport indique que les entreprises conceptrices n'ont pas fourni de garanties suffisantes pour contrer les propos hostiles, abusifs et sexuels. Comme Siri, la plupart des assistants ont tendance à détourner la conversation face à une phrase provocante. Par exemple, si vous demandez à Siri de préparer un sandwich, l'assistant vocal répondra «Je ne peux pas. Je n'ai pas de condiments».
Pire encore, des sociétés principalement composées d'ingénieurs hommes comme Apple et Amazon auraient construit des systèmes d'intelligence artificielle qui pousseraient leurs assistantes vocales à flirter avec les utilisateurs en cas de violence verbale. L'Unesco précise pour appuyer ses propos que 80% des chercheurs en intelligence artificielle sont des hommes.
D'après le document, les femmes seraient ainsi reléguées au rang d'assistantes dociles et désireuses de plaire, disponibles à la moindre sollicitation par simple pression d'un bouton ou commande vocale directe.
Toutefois, comme l'a précisé Business Insider en septembre dernier, le géant Amazon aurait choisi une voix féminine pour son assistant personnel intelligent car les études de marché auraient indiqué qu'elle était perçue comme plus sympathique que celle d'un homme.
Si, mis à part quelques expérimentations intéressantes, il semble difficile d'entrevoir des solutions magiques pour balayer ces stéréotypes dans le grand public, le rapport fournit une piste: les entreprises fabricantes devraient faire en sorte que les utilisateurs ne traitent pas les assistants comme des êtres humains inférieurs, et cesser de donner une apparence volontairement humaine aux agents conversationnels.