Lancés dans la traque des contenus pédophiles sur le net, contre lesquels ils sont tenus d'intervenir, les géants Google, Facebook et Microsoft ont développé des logiciels d'intelligence artificielle de plus en plus performants.
D'après Kristie Canegallo, vice-présidente du département «Trust & Safety» chez Google, son employeur aurait été en mesure de traiter 700 fois plus d'images pour la seule année écoulée que les précédentes.
Au total, rapporte le New York Times, plus de 45 millions de photos et de vidéos à caractère pédopornographique ont été repérées et signalées par l'industrie de la tech en 2018. Mais lorsqu'on veut savoir quels nouveaux moyens ont permis une telle prouesse, la question demeure sans réponse.
Des dérapages toujours possibles
Si ce n'est pas la première fois que les géants du web se murent dans le silence, le problème de l'opacité technique n'est pas le seul à se poser. Quid de la protection des données? Lorsque l'on sait qu'entreprises de la tech et gouvernement fédéral américain travaillent parfois main dans la main, l'inquiétude est légitime: les méthodes et systèmes servant à lutter contre un fléau terrible pourraient être utilisées pour de plus sombres desseins.
«Comment s'assurer que cette coopération ne soit pas étendue à d'autres activités?», s'interrogent ainsi Gabriel J.X. Dance et Michael H. Keller, journalistes au New York Times.
Facebook s'abrite derrière la règle des quatre-vingt-dix jours, appliquée dans ce genre de cas. Dans le cadre d'une enquête, les entreprises n'ont en effet le droit de conserver les images mises en cause que pour une durée maximale de trois mois.
L'IA, jamais infaillible
L'autre difficulté majeure concerne l'âge des potentielles victimes figurant sur les photos et vidéos. Pas toujours facile à évaluer avec certitude, il fait craindre de fausses accusations. Hugh Milward, directeur des affaires juridiques chez Microsoft pour la Grande-Bretagne, confirme: «Utiliser l'intelligence artificielle pour déterminer l'âge d'une personne est très risqué. Ce n'est pas une science exacte.»
Microsoft l'a d'ailleurs appris à ses dépens. En 2016, son logiciel qui détecte et scanne les images pédopornographiques a conduit à l'arrestation d'un chirurgien pédiatre d'Albuquerque.
Au tribunal, Guy Rosenschein a accusé l'entreprise d'avoir outrepassé ses prérogatives en agissant comme un fonctionnaire délégué par l'État, puisqu'elle s'est appuyée sur les données du National Center for Missing and Exploited Children, une organisation fondée par le Congrès américain au début des années 1980.
L'affaire, toujours en cours, pointe là aussi du doigt la question de la collaboration entre entreprises privées et autorités gouvernementales. Paul Ohm, professeur à l'université de droit de Georgetown et ancien procureur fédéral, estime que «plus les entreprises conduisent des actions pour lesquelles même la police a besoin d'un mandat, plus celles-ci agissent comme des agents fédéraux». Ce qu'elles ne sont bien sûr pas.