L'IA ne deviendra réellement intelligente que lorsqu'elle saura pourquoi les choses arrivent. | Qimono via Pixabay
L'IA ne deviendra réellement intelligente que lorsqu'elle saura pourquoi les choses arrivent. | Qimono via Pixabay

Pour progresser, l'IA doit apprendre à se demander «Pourquoi?»

Lauréat du prix Turing 2019, Yoshua Bengio souhaite que l'intelligence artificielle dépasse le stade intellectuel d'un enfant de 2 ans et comprenne les relations de cause à effet.

En mars 2019, Yoshua Bengio faisait partie des récipiendaires du prix Turing, aux côtés de Yann LeCun et Geoffrey Hinton. Ces trois scientifiques ont contribué au développement du deep learning, l'apprentissage profond de l'intelligence artificielle.

Revenue sur le devant de la scène, l'IA fait maintenant l'unanimité et semble être assurée d'un brillant avenir. Mais Yushua Bengio estime qu'il en faudrait beaucoup plus pour qu'elle puisse exprimer son plein potentiel.

Actuellement, grâce au deep learning, la machine est en mesure d'identifier des formes, des images, des tendances et constantes avec une grande précision. Elle reste en revanche incapable de reconnaître des liens de cause à effet: elle n'arrive pas encore à se demander pourquoi les choses arrivent.

L'intelligence artificielle apprend grâce à des bases de données, qui sont autant d'exemples lui permettant de savoir comment se comporter devant une situation précise, selon ce que l'être humain cherche à lui faire réaliser. Elle est par exemple utilisée dans la détection de signes de cancer sur des scanners médicaux et est capable de détecter des fraudes à partir de données financières.

Mais une fois extraite du cadre de cette formation initiale, l'IA ne parvient pas à déterminer les relations causales qui pousse tel événement à se produire après telle action.

Penser «outside the box»

«Les humains n'ont pas besoin de vivre avec de nombreux exemples d'accidents pour conduire prudemment», explique Yoshua Bengio à Wired: il leur suffit d'imaginer les accidents «pour se préparer mentalement, s'ils venaient à se produire».

Les intelligences artificielles sont encore incapables de fournir un tel raisonnement. Toute la difficulté réside dans la capacité des systèmes d'IA à ne pas être «perdus lorsqu'ils sont testés dans des conditions qui ne sont pas tout à fait les mêmes que celles sur lesquelles ils ont été formés», indique Gary Marcus, professeur émérite à l'université de New York et coauteur de Rebooting AI - Building Artificial Intelligence We Can Trust, un ouvrage qui souligne les limites de l'apprentissage profond.

Dans son laboratoire de recherche à Montréal, Bengio et son équipe travaillent sur un système d'enseignement des relations de cause à effet. L'algorithme que les scientifiques ont programmé utilise des données illustrant les relations, en termes de probabilités, entre le tabagisme et le cancer du poumon.

Il est capable d'émettre des hypothèses et de les vérifier en testant divers paramètres. Ainsi, l'IA devrait comprendre que le tabagisme n'est pas seulement lié au cancer mais peut également en être la cause, sans toutefois mettre de côté d'autres facteurs liés à la maladie.

En s'inspirant des expériences menées en sciences cognitives, on s'aperçoit que le développement humain et l'intelligence s'appuient nécessairement sur la compréhension des causes et des effets.

Il est peut-être temps de confier la formation des systèmes d'intelligence artificielle aux enfants qui ne cessent de demander «Pourquoi?». «Quand les machines commenceront à demander pourquoi, elles seront beaucoup plus intelligentes», assure Gary Marcus.

En ce moment

Aux États-Unis, une augmentation du travail des enfants

Et Cætera

Aux États-Unis, une augmentation du travail des enfants

Certains États assouplissent les règles, parfois au nom du bien-être des enfants et des parents.

 Votre alcool préféré résistera-t-il aux effets du réchauffement climatique?

Biz

Votre alcool préféré résistera-t-il aux effets du réchauffement climatique?

Bière, gin ou liqueur, il va falloir faire des réserves.

Une voiture autonome écrase un chien

Tech

Une voiture autonome écrase un chien

L'accident, survenu à San Francisco, aurait-il pu être évité?