–Mais alors, comment parvenez-vous à soutenir un business model où les utilisateurs ne paient pas pour le service?
–Sénateur… nous mettons des pubs.
Le 11 avril 2018, au beau milieu d'une audition devant un panel d'élu·es américain·es, Mark Zuckerberg ne peut pas s'empêcher de sourire de la question –et, forcément, de la naïveté apparente de sa propre réponse. Car les plateformes de services dématérialisés, GAFAM en tête, sont un peu plus que les JCDecaux du web.
150 comptes en moyenne
Si afficher des pubs leur rapporte beaucoup d'argent, c'est parce qu'elles promettent aux annonceurs qu'elles seront toujours parfaitement placées. Comment? Grâce à la collecte et l'analyse des données de leurs utilisateurs, qui leur permettent de définir chaque individu et groupe d'individus avec une grande précision.
Il est possible d'anticiper les comportements des consommateurs et de placer la publicité pour le produit qu'il faut, au moment précis où l'utilisateur ciblé a le plus de chances de le désirer. En 2017, dans un exemple resté célèbre, Facebook vantait à ses clients sa capacité à identifier le moment où les ados se sentent «en insécurité» et «ont besoin d'un boost de confiance» à partir de l'analyse sémantique de leurs messages.
En 2018, l'internaute moyen possédait près de 150 comptes en ligne. Toutes ces entreprises collectent des données et les grandes plateformes finissent par en obtenir une partie (soit parce qu'elles les achètent, comme vos positions géographiques auprès des opérateurs mobiles, soit parce qu'elles sèment des balises invisibles pour vous suivre à la trace sur le web, comme le «pixel Facebook»). Il y a tout un écosystème économique pour ça.
Aujourd'hui, les volumes de données personnelles récoltées, échangées et analysées par les oligopoles du net sont considérables et servent maintenant à entraîner les algorithmes d'intelligence artificielle –Facebook vous remercie au passage d'avoir si bien labellisé vos photos Instagram avec des hashtags, ça lui a permis de développer le meilleur système de reconnaissance d'images au monde. Des algorithmes qui automatisent… la collecte massive de données.
Enrayer l'hégémonie algorithmique
En 2016, l'Union européenne adoptait le Règlement général de la protection des données (RGPD), après dix ans de négociations. Ce cadre légal, qui définit précisément les droits numériques des Européen·nes et les obligations des entreprises vis-à-vis de la vie privée en ligne, a notamment réaffirmé le «droit à l'oubli».
Il permet à chaque citoyen·ne de demander à Google (et aux autres moteurs de recherche, mais Google détient 90% de parts de marché européen…), via un formulaire, d'être déréférencé·e des résultats de recherche. Et ça marche… à peu près. Depuis 2014, selon le «Transparency Report» de Google, l'entreprise a répondu favorablement à près d'une demande sur deux (48,5% des URL supprimées en France entre 2014 et 2018).
L'algorithme n'oublie jamais
Partant de ce principe, Wired s'est posé une question élémentaire le 12 juin: où se trouve l'équivalent du droit à l'oubli pour les données personnelles destinées aux algorithmes? En l'état, nulle part.
Pourtant, explique Wired, une génération entière a grandi dans ce capitalisme de la surveillance, où la différence entre internet et la vraie vie n'a plus de sens. Cette génération lâche de l'information personnelle à chaque seconde dans une société dédiée à sa captation et sa monétisation. Tout sera conservé, analysé, prêt à ressortir à la moindre occasion, si jamais une école, une compagnie d'assurance ou une banque en fait la demande. La donnée ne périme jamais.
Ne serait-il alors pas judicieux de mettre en place des systèmes d'effacement de cette mémoire? Puisqu'il est irréaliste de protéger les plus jeunes de l'exposition aux algorithmes (comme, avant eux, à la publicité), ne pourrait-on pas au moins les protéger de leurs conséquences à long terme? Et à l'autre bout du spectre, quid des données personnelles après notre mort?
En l'état, argue l'article, nous léguons par défaut notre identité numérique à des sociétés privées, qui sont libres de la conserver indéfiniment. En l'état, nous laissons quelques entreprises amasser et centraliser des montagnes d'informations sensibles, sans demander aucune contrepartie. En l'état, nous laissons s'approcher, amorphes et sourds aux avertissements, un cataclysme en matière de cybersécurité.
Pour les enfants, les morts et tous ceux entre les deux qui souhaitent un peu plus de gouvernance sur les bases de données, la société civile doit donc forcer celles et ceux qui conçoivent les intelligences artificielles (IA), ces mémoires parfaites au stockage infini, à leur apprendre l'oubli.
Comment? Avec la même méthode que pour l'adoption du RGPD: en multipliant les pistes de réflexion, en anticipant les usages et en s'armant pour la guerre. Car toucher aux bases de données des IA, c'est toucher à des puits de pétrole tout neufs. Ceux qui les exploitent se défendront, argueront que tout est anonymisé, qu'on ne saurait stopper le progrès, que c'est pour servir le bien commun.
Pourtant, si nos législateurs veulent garder un semblant de gouvernance sur les géants de la donnée, c'est maintenant qu'il faut sanctuariser la prévalence de l'individu sur les systèmes prédictifs.