La sortie le 14 mars de GPT-4, «petit frère» de l'intelligence artificielle ChatGPT développée par la société OpenAI, a été accompagnée de la publication d'un «rapport technique» de quatre-vingt-dix-huit pages. Mais de détails techniques, on n'en trouvera guère dans ce document, ce qui inquiète plusieurs spécialistes de l'IA qui dénoncent un manque de transparence. Comme l'explique Vice, impossible en effet de savoir avec quoi et comment le modèle a été entraîné, avec quelles machines et en quelles quantités, ni le coût énergétique que cela a représenté.
«Compte tenu à la fois du paysage concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, ce rapport ne contient aucun autre détail sur l'architecture (y compris la taille du modèle), le matériel, les ordinateurs d'entraînement, la construction des ensembles de données et la méthode d'entraînement», écrit OpenAI dans son rapport technique.
Cela pose plusieurs problèmes. Sans accès à ces données, les chercheurs indépendants peuvent difficilement comprendre les éventuelles faiblesses de GPT-4, ses biais, sa vulnérabilité à d'éventuelles manipulations, et donc les situations dans lesquelles il devrait être ou non utilisé. Impossible également de savoir si OpenAI «pille» des contenus sous copyright pour entraîner ses modèles, à l'image de Midjourney et DALL-E, à l'heure ou de plus en plus d'artistes se révoltent contre ces derniers.
Fin de l'utopie, place au profit
«GPT-4 n'est pas facile à développer. Il a fallu qu'à peu près tout OpenAI travaille conjointement pendant très longtemps pour le mettre au point. Et beaucoup d'entreprises veulent faire la même chose, donc d'un point de vue concurrentiel, vous pouvez voir cela comme une maturation du secteur», se défend Ilya Sutskever, le responsable scientifique d'OpenAI.
Cela s'inscrit aussi dans la rupture complète qu'OpenAI est en train d'opérer avec ses principes fondateurs, à savoir son caractère open-source (le code est public et consultable par tout un chacun) et la défense de la transparence dans l'IA. La société avait initialement garanti que ses chercheurs seraient encouragés à partager «des articles, des posts de blog ou du code» et se consacreraient à des recherches faisant progresser «l'humanité dans son ensemble, non contraintes par le besoin de générer un rendement financier». Une promesse qui a fait long feu.