Dès 2018, il est devenu difficile de suivre les nombreux scandales liés à l'IA sur fond de contrats controversés: entre Facebook et Cambridge Analytica; entre Google et le Pentagone sur les drones; entre Amazon, IBM et la police sur la reconnaissance faciale; entre Microsoft et les services de l'immigration sur le contrôle des frontières...
Derrière plusieurs hashtags (#TechWontBuildIt, #NoTechForICE, #Data4BlackLives) activistes et employé·es de ces firmes ont réclamé l'interdiction de certaines technologies, comme la reconnaissance faciale pour la police. En réaction, les géants de la tech ont tout fait pour éviter une régulation dure.
En janvier 2018, Microsoft a publié ses «principes éthiques» pour l'IA. En mai 2018, Facebook s'est engagé à lutter contre les biais de l'IA grâce à l'outil Fairness Flow. En juin 2018, Google a dévoilé ses «pratiques responsables» en matière d'IA. En septembre 2018, IBM a suivi le mouvement avec AI Fairness 360.
Une recherche très orientée
En janvier 2019, Facebook a financé un centre de recherche sur l'éthique de l'IA à Munich: 6,72 millions d'euros. En mars, Amazon a co-financé un programme de recherche de sur «l'équité dans l'IA» avec la National Science Foundation américaine: 18 millions d'euros.
Par ailleurs, le Data & Society Research Institute et l'AI Now Institute ont été créés par des chercheurs de Microsoft et financés par l'entreprise (ainsi que Google et DeepMind pour le second).
Le Stanford Institute for Human-Centered AI est notamment dirigé par un ancien vice-président de Google. L'unité sciences des données de Berkeley est aux mains d'un ancien de Microsoft. Enfin, un membre du conseil d'administration d'Amazon est à la tête du MIT Schwarzman College of Computing.
En France, le «think and do tank» Impact IA a été fondé sous l'impulsion de Microsoft et compte Orange, Accenture, Bouygues, la SNCF, Altran ou Air France-KLM parmi ses membres. Autant de potentiels conflits d'intérêts.
Le Partnership on AI to Benefit Society (créé par Microsoft, Google et DeepMind, Facebook, IBM et Amazon) a par exemple prôné auprès des autorités une simple amélioration de la «justice algorithmique», alors que plusieurs de ses scientifiques étaient favorables à son interdiction, notamment en raison de ses biais raciaux.
Rodrigo Ochigame, qui a travaillé pour le Partnership au sein du MIT Media Lab –également mis en cause pour ses liens financiers avec le pédocriminel Jeffrey Epstein– en conclut que «la majorité des travaux bien financés sur l'IA éthique sont alignés sur l'agenda du lobby de la tech: ajuster [...] plutôt que restreindre légalement, le déploiement de technologies controversées.»