Les assistants personnels intelligents comprennent en moyenne 90% des requêtes qui leur sont adressées. | Bence Boros via Unsplash
Les assistants personnels intelligents comprennent en moyenne 90% des requêtes qui leur sont adressées. | Bence Boros via Unsplash

Les assistants personnels intelligents renforcent les stéréotypes sexistes

Avec des voix féminines par défaut, ils perpétueraient des idées désuètes et préjudiciables aux femmes.

L'intelligence artificielle n'est pas à la pointe dans tous les domaines. Selon un rapport de l'Unesco, les assistants vocaux boostés par l'IA, dont beaucoup ont recours à des voix féminines, renforcent les stéréotypes nuisibles liés au genre.

Qu'ils se prénomment Google Assistant, Siri ou Alexa, ces agents conversationnels répondent à vos moindres désirs à tout moment, via vos appareils connectés. Leur utilité ne cesse de croître: ils peuvent vous permettre d'écouter de la musique sur vos plateformes préférées, vous lire des recettes de cuisine ou encore régler la température de votre logement.

L'enquête rédigée par les Nations unies s'est penchée sur le caractère féminin de ces bras droits virtuels, qui conditionnerait leurs propriétaires à se reposer sur des perceptions désuètes et préjudiciables aux femmes, à travers un prénom et une voix féminine.

Assistantes dociles et désireuses de plaire

En allant dans le détail, le rapport indique que les entreprises conceptrices n'ont pas fourni de garanties suffisantes pour contrer les propos hostiles, abusifs et sexuels. Comme Siri, la plupart des assistants ont tendance à détourner la conversation face à une phrase provocante. Par exemple, si vous demandez à Siri de préparer un sandwich, l'assistant vocal répondra «Je ne peux pas. Je n'ai pas de condiments».

Pire encore, des sociétés principalement composées d'ingénieurs hommes comme Apple et Amazon auraient construit des systèmes d'intelligence artificielle qui pousseraient leurs assistantes vocales à flirter avec les utilisateurs en cas de violence verbale. L'Unesco précise pour appuyer ses propos que 80% des chercheurs en intelligence artificielle sont des hommes.

D'après le document, les femmes seraient ainsi reléguées au rang d'assistantes dociles et désireuses de plaire, disponibles à la moindre sollicitation par simple pression d'un bouton ou commande vocale directe.

Toutefois, comme l'a précisé Business Insider en septembre dernier, le géant Amazon aurait choisi une voix féminine pour son assistant personnel intelligent car les études de marché auraient indiqué qu'elle était perçue comme plus sympathique que celle d'un homme.

Si, mis à part quelques expérimentations intéressantes, il semble difficile d'entrevoir des solutions magiques pour balayer ces stéréotypes dans le grand public, le rapport fournit une piste: les entreprises fabricantes devraient faire en sorte que les utilisateurs ne traitent pas les assistants comme des êtres humains inférieurs, et cesser de donner une apparence volontairement humaine aux agents conversationnels.

En ce moment

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Et Cætera

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Retour sur une riche semaine.

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Et Cætera

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Le récap' du jour.

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

Et Cætera

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

L'algorithme de la plateforme signalerait davantage leurs photos dénudées que celles des personnes minces.