Impact AI, collectif de réflexion et d'action lancé en 2018 à l'initiative de Microsoft et dont sont notamment membres Orange, Accenture, Bouygues, la SNCF, Altran ou Air France-KLM, publie les résultats d'une enquête de l'Ifop sur la population française et l'IA.
Directeur enjeux sociétaux RSE du groupe Orange et coordinateur de l'Observatoire Impact AI sur la santé et le bien-être au travail, Thierry Taboy revient pour nous sur ses enseignements.
Quels sont selon vous les principaux enseignements de l'enquête menée par l'Ifop pour Impact AI?
Thierry Taboy: Nous avions réalisé une première étude en 2018, on peut donc avoir quelques éléments de comparaison. L'intelligence artificielle conserve une image plutôt positive auprès des Français: ils sont 71% à en avoir une bonne image et 58% à estimer avoir plutôt confiance en elle.
Parmi les 42% des Français qui ne font pas confiance à l'IA, la vie privée et des données personnelles constituent le premier critère de défiance, avec une évolution notable de +10% par rapport à l'année dernière.
Ceci posé, ils sont très majoritairement conscients que l'IA va avoir, dans le futur, un impact majeur dans de nombreux domaines: 83% le pensent pour les transports et la mobilité, 76% pour l'énergie et l'environnement, 76% pour les activités financières et 62% pour l'agriculture et l'alimentation.
Toute personne ayant accès à internet est confrontée à l'IA, et le taux de couverture en France est proche de 90%. Les recommandations sur des plateformes de streaming, les outils de correction orthographique, les chatbots: ce sont aussi des IA.
Les Français sont très demandeurs d'information: plus de 70% des personnes interrogées souhaitent mieux connaître l'impact que l'IA aura sur des secteurs comme la santé ou l'éducation. Neuf enquêtés sur dix ont dit savoir ce qu'est l'IA, mais 25% d'entre eux ne se rendent pas forcément compte de son usage réel dans leur quotidien.
On peut considérer que toute personne ayant accès à internet y est confrontée, et le taux de couverture en France est proche de 90%. Les recommandations sur des plateformes de streaming, les outils de correction orthographique, les chatbots: ce sont aussi des IA.
Les assistants personnels sont également de plus en plus utilisés: 51% des personnes interrogées y ont eu recours via leur smartphone et le taux de pénétration des enceintes connectées devrait avoisiner les 15% après les fêtes de fin d'année.
Il y a donc un énorme besoin d'acculturation sur les différentes formes d'IA, sur leurs applications concrètes, etc.
Que pouvez-vous me dire d'Impact AI?
Après la publication du rapport Villani en mars 2018 et sur l'impulsion de Microsoft, nous avons créé un collectif d'entreprises, d'associations, d'écoles et d'acteurs de l'intelligence artificielle. Impact AI s'est monté autour d'un point qui nous semblait important, à la fois en France et au niveau européen: mettre en place un collectif pluridisciplinaire de réflexion et d'action, porté par les notions d'éthique et de responsabilité.
Ce collectif s'est construit autour de quatre axes. Le premier, qui se nomme «IA responsable», consiste en la mise en commun d'une boîte à outils, de savoirs, notamment sur les chartes et les processus à mettre en place au sein des organisations pour tendre vers cette idée de responsabilité.
Un autre axe de travail est l'éducation, qui a pour but de référencer et de cartographier toutes les formations, en présentiel ou non, aux différentes formes d'intelligence artificielle et qui travaille également à la question de l'acculturation à l'IA.
Le troisième axe, «IA For Good», tente d'apporter à des acteurs économiques ou sociaux des idées pour intégrer les intelligences artificielles à leurs actions, de manière à renforcer leurs capacités et leur développement.
Il y a enfin un observatoire, dont la mission est de regarder tout ce qui se fait dans le domaine de l'intelligence artificielle, pas seulement en France mais partout dans le monde, et en adoptant toujours un point de vue sociétal plutôt que technologique. En tant que coconcepteur au sein d'Orange d'une structure qui s'appelle le Digital Society Forum, j'ai rejoint cet observatoire, dont je suis l'un des coordinateurs.
Nous travaillons sur des valeurs communes. Elles sont au nombre de deux: ce sont les questions de la responsabilité et de l'éthique.
Le fait que cet observatoire soit directement lié à des grands acteurs de la tech ne peut-il pas être un motif de doute pour les personnes lisant vos travaux?
Nous travaillons sur des valeurs communes. Elles sont au nombre de deux: ce sont les questions de la responsabilité et de l'éthique. Cette dernière est la plus complexe, mais elle est au cœur de nos actions et réflexions. Sur ces fondamentaux, tout le monde est d'accord. Ce sont des thèmes sous-jacents à ce qui peut ensuite se développer au sein des entreprises, des associations, des écoles.
Cette réflexion commune peut-elle déboucher sur une forme de charte?
Nous avons publié un Livre blanc, et nous le ferons chaque année. C'est le concentré de tout ce qu'on a fait au long de l'année, dans les différents groupes de travail.
Il est agrémenté de quelque chose qu'a apporté Epita, l'un des membres fondateurs d'Impact AI: un aspect participatif et collaboratif, avec l'interrogation en régions de personnes n'appartenant pas forcément au domaine de l'IA, afin de faire remonter les problématiques ou questionnements qui peuvent se poser.
Selon l'étude de l'Ifop, la confiance des Français·es en l'IA est en baisse de 5% par rapport à l'an passé: cela ne vient-il pas justement du fait que les gens prennent peu à peu conscience qu'ils sont, plus qu'ils ne le croyaient, au contact de mécanismes qu'ils ne comprennent pas?
Je ne suis pas certain que ce soit le point le plus probant de l'enquête. Il me semble en revanche qu'il y a une vraie prise de conscience sur la question des données et de la vie privée.
Entre les enquêtes de presse ou les documentaires, les gens commencent à comprendre que «quand c'est gratuit, c'est vous le produit», que les données sont échangées, que les protéger est compliqué. C'est pour 38% des Français exprimant une méfiance vis-à-vis de l'intelligence artificielle la principale inquiétude, devant la potentielle destruction d'emplois!
Qu'est-ce qu'Impact AI peut leur proposer, pour les rassurer?
On en vient vraiment à toutes les actions que peuvent mener un collectif comme le nôtre. La responsabilité n'est pas pour nous un vain mot: elle doit toujours s'accompagner d'éléments de preuve associés.
Vous êtes un média, vous êtes aussi l'un des acteurs qui peuvent aider à cette compréhension, de manière à ce que les citoyens soient, comme le dirait Bernard Stiegler, dans un processus de “capacitation” –donc qu'ils puissent agir.
Il y a un gros travail à effectuer sur le terrain pour faire comprendre ce qu'est, comment fonctionne, à quoi sert une IA, quels sont les enjeux et les problématiques que ça peut soulever.
Nous sommes tous concernés par ça. Vous êtes un média, vous êtes aussi l'un des acteurs qui peuvent aider à cette compréhension, à soulever ces questions, de manière à ce que les citoyens soient, comme le dirait Bernard Stiegler, dans un processus de “capacitation” –donc qu'ils puissent agir.
Je pense que la France, comme l'Europe, a un vrai rôle à jouer par rapport à d'autres blocs –je pense à la Chine et à sa conception du contrôle social.
Voire à d'autres blocs économiques: Microsoft a fondé Impact AI, mais les questions de responsabilité et d'éthique ne sont pas forcément au cœur des préoccupations de Google, d'Amazon ou de Facebook, par exemple.
On cherche à regrouper autant d'acteurs que possible. À partir du moment où l'on établit des règles du jeu, qui sont des règles de partage et de bienveillance, que l'on met en place un outillage, que l'on conçoit cette nécessité de preuves associées, ils sont les bienvenus.
Qu'appelez-vous «preuves associées»?
Je m'occupe de responsabilité sociale chez Orange. Chaque année, je publie un rapport détaillant les actions qui ont été menées, la manière dont elles ont été menées, avec des indicateurs. C'est un document qui est diffusé, que tout le monde peut scruter. La responsabilité sociale de l'entreprise, elle est avant tout de pouvoir apporter la preuve de ses actions.
Vous me parliez plus tôt d'éthique: dans les intelligences artificielles, c'est une question à la fois cruciale et très complexe, notamment du fait des «boîtes noires» algorithmiques ou des biais que les créateurs d'IA leur inculquent nécessairement. Comment ces questions peuvent-elles s'articuler avec le principe de responsabilité?
On doit commencer par travailler sur des chartes, qui doivent être validées au plus haut niveau au sein des acteurs économiques. C'est ensuite que l'on peut travailler sur des processus. On travaille beaucoup sur la question des biais. Tout dépend du data set, il peut y avoir des biais naturels. Même avec la plus pure des intentions, ils peuvent émerger.
Il faut travailler de manière transparente, collective, interdisciplinaire, avec des acteurs des sciences sociales qui peuvent finement analyser la manière dont ces biais surgissent.
Les données dont on se sert pour entraîner une IA ne sont pas forcément représentatives de la réalité sociologie effective d'un territoire –Dominique Pasquier en a très bien parlé dans ses recherches.
Il faut travailler de manière transparente, collective, interdisciplinaire, avec des acteurs des sciences sociales, qui peuvent finement analyser la manière dont ces biais surgissent.
Quant à la question des «boîtes noires», je n'ai pas vraiment de réponse mais c'est un vrai sujet, sur lequel on doit aussi travailler.
Dans les inquiétudes des Français·es face aux IA, la question de l'emploi arrive derrière celle de la vie privée. Des études commencent pourtant à sortir, qui montrent que les dégâts pourraient être importants et que l'automatisation pourrait toucher des populations que l'on croyait plutôt protégées. Comment parler aux gens de ces questions? Comment adapter le système éducatif?
Ce dont on se rend compte, c'est que nombre de métiers vont beaucoup évoluer: le contour des métiers va évoluer, la manière de travailler va évoluer.
Je me penche notamment sur des questions de santé et de bien-être au travail, et nous devons d'ores et déjà nous interroger sur ces impacts, réfléchir à la façon dont ces changements doivent être accompagnés, à la manière dont nous devons reconfigurer le cadre contractuel pour que les choses se passent bien.
En revanche, sur les chiffres de création et de destruction d'emplois, il existe beaucoup d'études qui ne disent pas toutes la même chose et je pense que personne n'a encore vraiment la réponse, donc je ne m'aventurerai pas sur ces territoires.
Dans l'enquête qu'a menée l'Ifop pour Impact AI, on constate que s'il y a des inquiétudes quant à d'éventuelles destructions d'emplois, les personnes interrogées sont également très demandeuses d'information sur la façon dont leur métier va évoluer.
En matière de santé, une grande majorité (78%) de Français·es pensent que l'intelligence artificielle aura un rôle important à jouer. Mais là aussi se posent des questions de protection des données et de la vie privée, qui ne sont peut-être pas encore évidentes pour le grand public.
Tout à fait, et vous touchez directement à l'un des axes sur lesquels nous allons très vite travailler. Ce sont des questions centrales, sur lesquelles Impact AI peut réfléchir dès maintenant.