Alors que l'intelligence artificielle avance à toute allure, entreprises et gouvernements se ruent sur des technologies nouvelles, dont les conséquences sont découvertes en temps réel et dont les risques ne sont compris qu'une fois déployées pour une utilisation globale.
AI Now est un institut visant à comprendre et prévoir les implications sociales de l'intelligence artificielle. Rattaché à l'université de New York, il rend tous les ans un rapport dans lequel il recommande des mesures à prendre afin d'encadrer au mieux les avancées de l'IA.
Cette année, sa publication avertit sur une application en particulier: la lecture d'émotions. Il existe en effet des logiciels affirmant pouvoir détecter les micro-expressions d'un visage et en déduire les émotions de la personne filmée. Mais selon AI Now, cette technologie repose sur des «fondations très fragiles» –ce qui ne l'empêche pas d'être déjà largement répandue et d'avoir des répercussions bien réelles.
Méthode contestée
D'après la professeure Kate Crawford, cofondatrice de AI Now, beaucoup de systèmes se basent sur le travail du psychologue Paul Ekman qui, dans les années 1970, a mis au point une technique pour lire les émotions à partir des mouvements et expressions faciales.
La méthode d'Ekman est pourtant vivement contestée. Après avoir analysé des milliers d'algorithmes la prenant pour base, des scientifiques ont conclu qu'au mieux, ce type d'IA permet de détecter efficacement les micro-expressions du visage.
En revanche, le lien de cause à effet ensuite établi entre expressions et émotions est jugé extrêmement réducteur et simpliste, compte tenu du large éventail des sentiments humains: les expressions peuvent varier d'une personne ou d'une culture à l'autre, les émotions peuvent se mélanger et être contradictoires...
Biais racial
Le biais racial observé dans de nombreuses intelligences artificielles n'épargne pas non plus la reconnaissance d'émotions. Plusieurs algorithmes, dont celui de Microsoft, ont par exemple plus souvent détecté de la colère chez les Noir·es que chez les Blanc·hes.
Malgré des bases soulevant de nombreuses questions, le marché pour ce genre d'IA représente plusieurs dizaines de milliards de dollars. Ces logiciels sont souvent ajoutés en tant que fonctionnalité «bonus» de programmes de reconnaissance faciale, afin d'identifier de potentielles menaces ou d'aider au recrutement.
La police se fournit notamment chez Oxygen Forensics et Rekognition, des services proposant une option «lecture de sentiments». En août dernier, Amazon se vantait d'ailleurs d'avoir appris à Rekognition à reconnaître la peur. Pour mémoire, l'entreprise est également propriétaire des caméras de surveillance connectées Ring, dont le maillage aux États-Unis fait peser une menace sur les libertés publiques.