Comportement vulgaire, intimidation, messages déplacés: et si les algorithmes nous permettaient de lutter contre le harcèlement au travail? Après le mouvement #MeToo, place au #MeTooBots. Plusieurs firmes d'intelligence artificielle développent actuellement des robots pouvant reconnaître différentes formes de harcèlement sexuel en ligne.
Déjà utilisés par des entreprises du monde entier, ces robots s'appuient sur un algorithme conçu pour identifier les intimidations potentielles, y compris le harcèlement sexuel, dans les documents d'entreprise, les e-mails et le chat des employé·es.
Une fois les données récoltées puis passées au crible par l'IA, toutes les informations détectées comme étant potentiellement déplacées sont envoyées à un·e avocat·e ou un·e responsable des ressources humaines, qui sont ensuite chargé·es de mener une enquête.
Les indicateurs de l'algorithme qui poussent l'IA à donner le signal d'alarme sont secrètement gardés par les entreprises. Jay Leib, le PDG de la société NexLP, qui développe cet outil, a précisé au Guardian qu'il s'agissait principalement d'anomalies de langage et d'analyses de la fréquence des discussions par rapport à un modèle de communication préalablement établi.
La plateforme de NexLP est déjà utilisée par plus de cinquante sociétés, dont plusieurs cabinets d'avocat·es à Londres. Selon son PDG, les client·es affluent de toutes parts, des services financiers au secteur des produits pharmaceutiques.
La demande accrue pour ce type d'outils n'est pas sans fondement. En France, une femme sur cinq a déjà été confrontée à une situation de harcèlement sexuel au cours de sa vie professionnelle selon un sondage de l'Ifop réalisé en 2014.
Limites de la compréhension du langage
Le véritable défi pour les fabricants de ces robots est de leur apprendre à détecter le harcèlement. Comment un robot peut-il comprendre les subtilités linguistiques ou à lire entre les lignes?
Brian Subirana, professeur d'intelligence artificielle à Harvard et au MIT, reste sceptique quant à leur utilisation. «Il y a un type de harcèlement qui est très subtil et très difficile à détecter. Cela nécessite un type de compréhension dont l'IA n'est pas encore capable», a-t-il déclaré.
Le problème sous-jacent est que l'IA ne peut analyser et comprendre des dynamiques culturelles ou interpersonnelles plus larges. Elle ne reste efficace qu'à partir d'une analyse de déclencheurs spécifiques préalablement établis. Cela signifie que les robots risquent de laisser passer de potentiels messages de harcèlement, ou bien de se révéler hypersensibles.
Malgré ses inquiétudes, Subirana pense que #MeTooBots pourrait permettre de fournir une base de données de ce type de messages. Il y voit aussi un «élément préventif». Les communications étant surveillées, les employé·es seraient moins enclin·es à harceler leurs collègues de bureau.