Les personnes qui conçoivent les algorithmes ne connaissent pas nécessairement toutes les opérations dont ils sont composés. | NESA by Makers via Unsplash 
Les personnes qui conçoivent les algorithmes ne connaissent pas nécessairement toutes les opérations dont ils sont composés. | NESA by Makers via Unsplash 

Plus on connaît un algorithme, moins on lui fait confiance

Une chercheuse estime que la capacité d'échapper à la dépendance vis-à-vis des ces formules mathématiques est à l'origine d'une nouvelle fracture numérique.

Amazon, Netflix, Facebook, Google, Twitter... la plupart du temps, les actions que nous effectuons en ligne sont commandées par des algorithmes. L’intelligence artificielle (IA), qui occupe une place quasi omniprésente sur internet, voire dans la vie quotidienne, fait partie de ses mécanismes de fontionnement les plus importants.

Malgré tout, peu de gens comprennent les tenants et aboutissants de ce mode de calcul. Pour la chercheuse Anjana Susarla, cette faculté à saisir ou, au contraire, l'incapacité à maîtriser ce type d'opérations constitue la nouvelle «fracture numérique». À l’origine, cette expression à été conçue afin de désigner les inégalités de répartition des nouvelles technologies entre pays riches et pays pauvres, d’une part, et entre zones urbaines et zones rurales, d’autre part.

Aujourd’hui cette fracture s’est en partie résorbée, internet étant globalement plus accessible dans le monde. L'enjeu s'est donc déplacé, selon la chercheuse, sur l’inégalité qui sépare les internautes averti·es –qui comprennent le fonctionnement des algorithmes– des autres –la majorité– qui trouve encore opaque la lecture de ces suites de chiffres et de symboles.

Une différence qui est loin d’être anodine: appréhender la logique des algorithmes permet, selon Susarla, de «comprendre et d’évaluer les conséquences d’une vie connectée». Cette évaluation peut servir à décider de continuer à les utiliser ou pas, en connnaissance de cause.

Transparence oblige

Les entreprises ou administrations n’ont pas intérêt à ce que le public connaisse les entrailles de leur intelligence artificielle. Les résultats d'une étude d’octobre 2018 ont démontré que les internautes ont davantage confiance quand des conseils viennent de machines intelligentes que d’humains.

En revanche, si l’on comprend les choix qu'opère la machine, les résultats s'inversent. Lors d’une expérience, trois groupes d’étudiant·es ont été notés par un algorithme, chaque groupe étant plus ou moins informé sur son fonctionnement. Le groupe qui avait reçu les informations les plus transparentes était celui qui rechignait le plus à accorder sa confiance.

[Les internautes ont le droit de connaître] l'existence d'une prise de décision automatisée et des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée».
article 13 du règlement général sur la protection des données

Avoir conscience du fonctionnement interne des machines pensantes peut aussi permettre aux personne qui les utilisent de détecter leurs défauts et ainsi refuser de s’y prêter voire lutter contre leur usage. Car les géants du net ne sont pas les seuls à faire appel à eux. Pour exemple récent, on peut citer la polémique provoquée par les très décriés «algorithme locaux» de Parcoursup censés aider les universités à sélectionner leurs étudiant·es –et dont le fonctionnement reste sibyllin.

Les pouvoirs publiques n'ignorent pas que l’opacité des algorithmes représente un problème. L’article 13 du fameux règlement général sur la protection des données (RGPD) précise d’ailleurs que les internautes européen·es ont le droit de connaître «l'existence d'une prise de décision automatisée […] et des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée».

Si la transparence reste la meilleure option, elle ne constitue pas pour autant la panacée. Les compétences techniques nécessaires pour lire le fonctionnement d’un algorithme sont très pointues et avoir accès trop de détails peut avoir l’effet inverse de celui qui était recherché, perdant en chemin la majorité des individus.

En ce moment

Pour garder le contrôle d'un drone, une IA pourrait «tuer» son opérateur durant une simulation

Tech

Pour garder le contrôle d'un drone, une IA pourrait «tuer» son opérateur durant une simulation

Pas très rassurant.

Les aliens seraient déjà parmi nous, et ils nous observeraient

Tech

Les aliens seraient déjà parmi nous, et ils nous observeraient

Leurs atouts? Des drones et des IA.

Le premier filet de poisson imprimé en 3D a vu le jour

Tech

Le premier filet de poisson imprimé en 3D a vu le jour

Peut-on dire qu'il s'agit d'un plat de poisson pas né?