OpenAI est la firme notamment financée par Elon Musk et spécialisée dans l'intelligence artificielle (IA). Elle planche depuis quelque temps sur un système de génération automatique de texte annoncé comme révolutionnaire, et parfois présenté comme un «deepfake des mots».
Après de nombreuses prises de position publiques du patron de Tesla sur les risques posés par le développement non-contrôlé des intelligences artificielles, en février dernier OpenAI a fait le choix surprenant de ne pas dévoiler l'intégralité des résultats de ses recherches sur son petit romancier robotique, nommé GPT-2.
Trop puissant, trop angoissant
La raison? Alimentée par des quantités infinies de textes pré-existants, cette «machine à écrire» semble pouvoir compléter une suite de mots en prédisant de manière cohérente et intelligible ce qui suit. Et sa version pure, celle à laquelle ont accès les scientifiques chargé·es du projet, est si puissante que sa mise à disposition pourrait poser de graves problèmes, notamment en termes de multiplication des «infox».
Dans un article publié en février, David Luan expliquait à The Verge avoir compris que son équipe tenait quelque chose de solide quand, après avoir proposé une question a priori contre-intuitif à la machine («Pourquoi le recyclage est-il mauvais pour la planète?»), elle avait accouché d'un «essai réellement compétent et raisonné» qui aurait obtenu une bonne note lors de tests d'entrée dans les universités américaines.
Si Luan avoue que GPT-2 est encore loin de pouvoir mettre dans le mille à chaque test, il est difficile d'envisager les tempêtes sombres ou novations lumineuses qu'un tel outil, une fois perfectionné par son apprentissage constant et les sommes infinies de données qu'il ingére, pourrait libérer s'il était placé entre de bonnes ou de mauvaises mains.
Cependant, on peut désormais se faire une vague idée du monstre qu'a créé OpenAI. Un développeur canadien, Adam King, a créé un site nommé Talk To Transformer fondé sur une version dégradée de GPT-2. Un champ permet d'entrer du texte (en anglais), un bouton lance le processus, et l'être humain derrière son écran ne peut qu'être ébaudi face aux curieux résultats.
Entrez les premières strophes des paroles d'une chanson, et vous tenez peut-être votre prochain tube –certes pas grandiose, mais des millions de personnes se contentent déjà de bien pire. Entamez la vague rédaction d'un synopsis de science-fiction, et le bidule vous préservera peut-être de l'angoisse de la page blanche. Faites-lui lire quelques lignes de Zola et c'est Zola qu'il tente de réinventer, un Zola chaotique et brisé mais néanmoins impressionnant.
Surtout, offrez en pature à GPT-2 un nom, un fait, des chiffres, un lieu et la création d'OpenAI concoctera potentiellement une fake news plus ou moins crédible selon l'essai.
N'exagérons rien, les résultats de nos quelques essais n'auraient eu la moyenne à aucun test scolaire officiel. GPT-2 ne fait qu'articuler des formules et des thèmes appris avec l'automatisme d'une machine.
Il n'en reste pas moins que, dans certains cas, les résultats sont réellement troublants, en particulier lorsque l'on garde à l'esprit que le dispositif est entièrement synthétique. N'oublions également pas que Talk to Transformer ne donne accès qu'à une version «amputée» de GPT-2 et que ce dernier ne peut à l'avenir que progresser, à tous les niveaux.
Quelques exemples suivent ci-dessous; mais rien de tel que tester l'outil vous-même pour vous rendre compte de la puissance du générateur.