Les mineurs utilisaient des canaris pour prévenir les coups de grisou; il y a des équivalents pour les IA. | Bruce Tang via Unsplash
Les mineurs utilisaient des canaris pour prévenir les coups de grisou; il y a des équivalents pour les IA. | Bruce Tang via Unsplash

Comment savoir quand l'IA détruira l'humanité?

Il y a peu de risques, mais autant s'y préparer.

La perspective de l'émergence d'une super-IA qui détruirait les êtres humains préoccupe de plus en plus. Pourtant, bien que les progrès de l'intelligence artificielle soient considérables et rapides, elle reste fondamentalement distincte de l'intelligence humaine et dépourvue de conscience.

Sceptique sur l'apparition d'une IA forte, le chercheur en informatique Oren Otzioni propose des signaux d'alerte, ou «canaris» –comme ceux qui alertent sur la présence de gaz dans une mine de charbon– pour rationaliser le débat.

Le terme d'apprentissage automatique (machine learning) prête à confusion. L'homo sapiens est animé par une motivation personnelle, planifie lui-même son apprentissage, se donne ses propres objectifs et comprend ce qu'il apprend.

À l'inverse, les victoires d'ordinateurs contre des humains, au jeu de go par exemple, sont issues d'un apprentissage automatique très étroitement supervisé par des personnes. Un être humain formule ses propres problèmes d'apprentissage, alors qu'un algorithme ne le fait pas. S'il le faisait, ce serait un premier «canari» –on en est encore loin.

Les IA actuelles restent des «savants idiots»

Les voitures autonomes pourraient représenter un deuxième canari. «La conduite [...] nécessite de prendre des décisions vitales en temps réel, basées sur le monde physique imprévisible et l'interaction avec les conducteurs humains, les piétons et d'autres.» Un algorithme qui conduirait aussi bien qu'un humain devrait donc être source de méfiance, selon Otzioni.

Une IA médicale capable de diagnostiquer un·e patient·e de façon entièrement autonome constituerait un troisième canari. Les algorithmes peuvent analyser les images médicales, mais un diagnostic réussi impliquerait de parler avec les patient·es, d'échanger avec d'autres médecins... Là encore, nous en sommes loin.

Une véritable conversation avec une IA représenterait un quatrième canari. Or, si l'on demande à Alexa: «Mon trophée ne rentre pas dans mon bagage à main car il est trop grand. Que devrais-je faire?», l'assistant personnel, qui n'a pas la notion de la taille des objets, répond «je ne sais pas», car elle ne sait pas si «il» fait référence au trophée ou au bagage.

Ces signaux permettront d'agir avant qu'il ne soit trop tard, si les prémices d'une super-IA devaient –sait-on jamais– apparaître un jour. En revanche, le discours apocalyptique sur l'IA forte «est une distraction vis-à-vis des problèmes existants, comme [...] réguler l'impact de l'IA sur l'emploi, ou s'assurer que son utilisation dans les condamnations pénales ou les évaluations de crédit ne discrimine pas certains groupes», critique Otzioni.

En ce moment

Les inquiétantes failles de sécurité du nucléaire militaire américain

Et Cætera

Les inquiétantes failles de sécurité du nucléaire militaire américain

La sûreté semble trop souvent compromise dans le fameux laboratoire de Los Alamos.

La Sibérie, terre promise des cryptomonnaies?

Tech

La Sibérie, terre promise des cryptomonnaies?

La région pourrait devenir un enjeu stratégique pour l'indépendance numérique russe.

Cet été, adonnez-vous au «glamping»

Biz

Cet été, adonnez-vous au «glamping»

La mode est au camping glamour, dont le marché explose à la suite de la crise sanitaire.