Amazon, Netflix, Facebook, Google, Twitter... la plupart du temps, les actions que nous effectuons en ligne sont commandées par des algorithmes. L’intelligence artificielle (IA), qui occupe une place quasi omniprésente sur internet, voire dans la vie quotidienne, fait partie de ses mécanismes de fontionnement les plus importants.
Malgré tout, peu de gens comprennent les tenants et aboutissants de ce mode de calcul. Pour la chercheuse Anjana Susarla, cette faculté à saisir ou, au contraire, l'incapacité à maîtriser ce type d'opérations constitue la nouvelle «fracture numérique». À l’origine, cette expression à été conçue afin de désigner les inégalités de répartition des nouvelles technologies entre pays riches et pays pauvres, d’une part, et entre zones urbaines et zones rurales, d’autre part.
Aujourd’hui cette fracture s’est en partie résorbée, internet étant globalement plus accessible dans le monde. L'enjeu s'est donc déplacé, selon la chercheuse, sur l’inégalité qui sépare les internautes averti·es –qui comprennent le fonctionnement des algorithmes– des autres –la majorité– qui trouve encore opaque la lecture de ces suites de chiffres et de symboles.
Une différence qui est loin d’être anodine: appréhender la logique des algorithmes permet, selon Susarla, de «comprendre et d’évaluer les conséquences d’une vie connectée». Cette évaluation peut servir à décider de continuer à les utiliser ou pas, en connnaissance de cause.
Transparence oblige
Les entreprises ou administrations n’ont pas intérêt à ce que le public connaisse les entrailles de leur intelligence artificielle. Les résultats d'une étude d’octobre 2018 ont démontré que les internautes ont davantage confiance quand des conseils viennent de machines intelligentes que d’humains.
En revanche, si l’on comprend les choix qu'opère la machine, les résultats s'inversent. Lors d’une expérience, trois groupes d’étudiant·es ont été notés par un algorithme, chaque groupe étant plus ou moins informé sur son fonctionnement. Le groupe qui avait reçu les informations les plus transparentes était celui qui rechignait le plus à accorder sa confiance.
[Les internautes ont le droit de connaître] l'existence d'une prise de décision automatisée et des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée».
Avoir conscience du fonctionnement interne des machines pensantes peut aussi permettre aux personne qui les utilisent de détecter leurs défauts et ainsi refuser de s’y prêter voire lutter contre leur usage. Car les géants du net ne sont pas les seuls à faire appel à eux. Pour exemple récent, on peut citer la polémique provoquée par les très décriés «algorithme locaux» de Parcoursup censés aider les universités à sélectionner leurs étudiant·es –et dont le fonctionnement reste sibyllin.
Les pouvoirs publiques n'ignorent pas que l’opacité des algorithmes représente un problème. L’article 13 du fameux règlement général sur la protection des données (RGPD) précise d’ailleurs que les internautes européen·es ont le droit de connaître «l'existence d'une prise de décision automatisée […] et des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée».
Si la transparence reste la meilleure option, elle ne constitue pas pour autant la panacée. Les compétences techniques nécessaires pour lire le fonctionnement d’un algorithme sont très pointues et avoir accès trop de détails peut avoir l’effet inverse de celui qui était recherché, perdant en chemin la majorité des individus.