Les assistants personnels intelligents comprennent en moyenne 90% des requêtes qui leur sont adressées. | Bence Boros via Unsplash
Les assistants personnels intelligents comprennent en moyenne 90% des requêtes qui leur sont adressées. | Bence Boros via Unsplash

Les assistants personnels intelligents renforcent les stéréotypes sexistes

Avec des voix féminines par défaut, ils perpétueraient des idées désuètes et préjudiciables aux femmes.

L'intelligence artificielle n'est pas à la pointe dans tous les domaines. Selon un rapport de l'Unesco, les assistants vocaux boostés par l'IA, dont beaucoup ont recours à des voix féminines, renforcent les stéréotypes nuisibles liés au genre.

Qu'ils se prénomment Google Assistant, Siri ou Alexa, ces agents conversationnels répondent à vos moindres désirs à tout moment, via vos appareils connectés. Leur utilité ne cesse de croître: ils peuvent vous permettre d'écouter de la musique sur vos plateformes préférées, vous lire des recettes de cuisine ou encore régler la température de votre logement.

L'enquête rédigée par les Nations unies s'est penchée sur le caractère féminin de ces bras droits virtuels, qui conditionnerait leurs propriétaires à se reposer sur des perceptions désuètes et préjudiciables aux femmes, à travers un prénom et une voix féminine.

Assistantes dociles et désireuses de plaire

En allant dans le détail, le rapport indique que les entreprises conceptrices n'ont pas fourni de garanties suffisantes pour contrer les propos hostiles, abusifs et sexuels. Comme Siri, la plupart des assistants ont tendance à détourner la conversation face à une phrase provocante. Par exemple, si vous demandez à Siri de préparer un sandwich, l'assistant vocal répondra «Je ne peux pas. Je n'ai pas de condiments».

Pire encore, des sociétés principalement composées d'ingénieurs hommes comme Apple et Amazon auraient construit des systèmes d'intelligence artificielle qui pousseraient leurs assistantes vocales à flirter avec les utilisateurs en cas de violence verbale. L'Unesco précise pour appuyer ses propos que 80% des chercheurs en intelligence artificielle sont des hommes.

D'après le document, les femmes seraient ainsi reléguées au rang d'assistantes dociles et désireuses de plaire, disponibles à la moindre sollicitation par simple pression d'un bouton ou commande vocale directe.

Toutefois, comme l'a précisé Business Insider en septembre dernier, le géant Amazon aurait choisi une voix féminine pour son assistant personnel intelligent car les études de marché auraient indiqué qu'elle était perçue comme plus sympathique que celle d'un homme.

Si, mis à part quelques expérimentations intéressantes, il semble difficile d'entrevoir des solutions magiques pour balayer ces stéréotypes dans le grand public, le rapport fournit une piste: les entreprises fabricantes devraient faire en sorte que les utilisateurs ne traitent pas les assistants comme des êtres humains inférieurs, et cesser de donner une apparence volontairement humaine aux agents conversationnels.

En ce moment

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

Et Cætera

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

De quoi bien occuper votre dimanche.

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

Et Cætera

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

(Et plein d'autres choses aussii.)

Les deepfakes pour les nuls, c'est pour (très) bientôt

Tech

Les deepfakes pour les nuls, c'est pour (très) bientôt

Des deepfakes open source et prêts à l'emploi, c'est pour demain et ils risquent d'en rajouter dans le chaos existant.