Les IA commencent à apprendre à synthétiser, classer, comprendre et restituer des opinions. | Geralt via Pixabay
Les IA commencent à apprendre à synthétiser, classer, comprendre et restituer des opinions. | Geralt via Pixabay

Quand un robot débat avec un robot des dangers des robots

Il réussit à convaincre les êtres humains que tout va bien.

IBM s'est prêtée à une petite expérience assez étonnante. Le géant informatique américain, pionnier de la recherche en IA, a fait débattre un système d'intelligence artificielle des dangers de l'intelligence artificielle. Au bout du compte, la firme a réussi –de justesse– à convaincre un public humain de l'impact positif de cette technologie sur le monde.

Baptisé Project Debater, le robot développé par «Big Blue» a été enrichi d'arguments et d'opinions de plus de 1.100 personnes sur les bienfaits de l'intelligence artificielle ou, au contraire, sur les dangers qu'elle peut représenter.

Dans une discussion en partie animée par des êtres humains, la machine a ensuite fait montre de son savoir et de ses conclusions devant un aréopage de 300 étudiant·es, réuni dans les locaux de la plus vieille société de débat au monde, la Cambridge Union, en Angleterre.

Aucune morale

Pour prendre tour à tour le rôle de fervent critique et de défenseur acharné de l'intelligence artificielle, Project Debater a utilisé une application développée par IBM, Speech by Crowd, qui analyse et regroupe des arguments «pour» et «contre» sur n'importe quel type de sujet, avant de les classer par thème et d'éliminer les redondances.

Résultat? Un débat plutôt cohérent mais parfois un brin ironique. Pour le «contre», le robot a paradoxalement expliqué que l'intelligence artificielle allait «causer beaucoup de mal»: un système d'IA n'est «pas capable de prendre des décisions moralement bonnes, parce que la moralité est propre aux humains».

«Les entreprises d'intelligence artificielle n'ont pas assez d'expertise pour bien mesurer les données et filtrer nos biais [...]. L'IA prendra les biais humains et les fixera pour des générations», a (justement) poursuivi la machine.

Conclusions simplistes

Doté de la précieuse capacité de ponctuer ses interventions de blagues plus ou moins bien senties, plutôt doué dans le classement et l'organisation des arguments, Project Debater s'est tout de même heurté à certaines limites, relève les observateurs.

Plusieurs de ses conclusions ont été jugées simplistes, à l'image peut-être de ce que des êtres humains auraient avancé; d'autres ont été affirmées sans aucune source ou argumentation solide pour les étayer.

Malgré les hics, les progrès de l'intelligence artificielle semblent avoir impressionné. À la fin de la journée, le camp pro-IA a remporté de justesse la victoire, en réunissant 51,22% de l'assemblée.

Project Debater a été présenté au grand public pour la première fois au Consumer Electronics Show 2019. Pour IBM, l'objectif est d'en faire à terme un outil de crowdsourcing parfait, capable de faire passer la prise de décision participative à un autre niveau.

En ce moment

La 155e brigade d'infanterie de marine russe, l'unité qui a été détruite huit fois en Ukraine

Et Cætera

La 155e brigade d'infanterie de marine russe, l'unité qui a été détruite huit fois en Ukraine

Ouch.

L'hallucinant rififi des «salopards» américains engagés en Ukraine

Et Cætera

L'hallucinant rififi des «salopards» américains engagés en Ukraine

Des volontaires sans filtre: quelques affabulateurs ou voleurs ont aussi fait le voyage.

☢️2,5 tonnes d'uranium dans la nature 🎧AirPods, un scandale écologique ⛽Les prix du pétrole: l'hebdo de korii.

Et Cætera

☢️2,5 tonnes d'uranium dans la nature 🎧AirPods, un scandale écologique ⛽Les prix du pétrole: l'hebdo de korii.

Six actus à (re)découvrir en ce dimanche.