Il était une fois, un jeu en ligne aux promesses illimitées. AI Dungeon, sorti en décembre 2019, charme la presse spécialisée par son concept inédit de jeu de rôle textuel –une idée venue tout droit de la préhistoire vidéoludique– engageant le joueur dans une conversation avec GPT-3, le gigantesque modèle de langage développé par OpenAI.
Le principe est simple: à partir des prémices de votre choix, l'IA va pondre un embryon de scénario. Ensuite, à vous de jouer: après chaque proposition, vous êtes libre de proposer un dialogue, une action, ou une nouvelle description des événements.
Zombies, aliens, enquêtes sombres, romance interdite… La seule limite, et c'est là tout l'intérêt, est celle de votre imagination. Dans AI Dungeon, rien n'est programmé par des développeurs, il n'y a que le joueur et un algorithme d'apprentissage profond délirant qui se racontent des histoires en génération procédurale pour passer le temps.
Parfois, il est même possible de «gagner» le jeu, après avoir intelligemment navigué dans les méandres de GPT-3. Envie de perdre une heure ou deux? Essayez, c'est (partiellement) gratuit.
L'algorithme-flic contre les loli
Depuis deux ans, tout roulait dans le monde féérique et libertaire d'AI Dungeon. L'imagination avait bel et bien pris le pouvoir, on pouvait tout dire, tout écrire, et une communauté de joueurs-narrateurs s'échangeait ses créations les plus inspirées sur Reddit, Discord, ou en collaborant au sein du jeu pour générer des univers collectifs.
Mais le 27 avril dernier, tout change: sous la pression d'OpenAI, le développeur du jeu Latitude est contraint de mettre en place un système de modération automatique qui va brider les réponses de l'algorithme.
La raison? Le modèle de langage avait bien trop tendance à générer des contenus «loli», dans lesquels les personnages d'enfants étaient sexualisés, rapporte The Register le 30 avril.
Une mise à jour et un post de blog plus tard, tout était rentré dans l'ordre, expliquait Latitude: l'immense majorité des joueurs ne verrait aucune différence en gameplay (excepté un message expliquant que «Oh oh, cette histoire prend une tournure bizarre…») et AI Dungeon continuerait bien évidemment à «permettre les autres contenus NSFW, comme le sexe entre adultes consentants, la violence et la vulgarité». Ouf, l'imagination était sauve.
Machine à fantasmes inavoués
The End? Loin de là. Sitôt les annonces faites, la communauté des joueurs se déchire entre les soutiens de Latitude (minoritaires) et les défenseurs d'une liberté d'expression absolue, qui fustigent un algorithme de censure trop zélé, censurant des pastèques et menaçant les contenus archivés.
D'autres se posent une question plus technique. Si la censure est automatisée, Latitude et ses employés ont-ils accès aux contenus sauvegardés des joueurs, y compris ceux non publiés? Ont-ils donc accès à leurs fantasmes les plus intimes? Malaise.
Le lendemain des annonces, un hacker white hat nommé AetherDevSecOps donne la réponse sur Github, et elle est terrible: non seulement Latitude voit bel et bien tout ce que ses joueurs écrivent, bien que le studio affirme le contraire, mais sa base de données (de 50 millions d'aventures et 800.000 scénarios) est vulnérable aux attaques.
De nombreux joueurs sont inscrits à la version payante du jeu sous leur identité bancaire, et le hacker affirme que, sur les 188.000 histoires consultées (créées entre le 15 et le 19 avril), près de la moitié contenait des scènes lubriques, et un tiers était exclusivement pornographique. La situation ressemble donc à la recette parfaite pour du chantage en ligne.
Sur Reddit, les joueurs fulminent, doublement floués par le studio. L'affaire AI Dungeon est ainsi un parfait condensé de la culture Web: du jeu de rôle, de la créativité, du sexe, des algorithmes, et l'affrontement de deux modèles de liberté d'expression. The End? Probablement pas.