Vous en avez déjà marre d'en entendre parler, mais l'intelligence artificielle est bien partie pour prendre toujours plus de place dans nos vies.
Derrière le caractère divertissant des dessins générés par Midjourney ou des réponses de ChatGPT –et des problèmes éthiques soulevés– une course s'est engagée. Elle oppose les jeunes sociétés qui ont mis ces outils sur le marché –notamment OpenAI– aux GAFAM, tels Google et Microsoft, qui cherchent à les concurrencer.
Comme le raconte CNBC, un élément de hardware d'une valeur unitaire de 10.000 dollars (9.400 euros environ) est devenu incontournable pour le développement des solutions d'intelligence artificielle: la Nvidia A100. C'est notamment grâce à elle que l'entreprise Nvidia contrôle désormais «95% du marché des processeurs graphiques utilisables pour l'apprentissage automatique».
L'un de ses principaux atouts réside dans sa capacité à effectuer simultanément un grand nombre de calculs simples. Il n'est pas forcément nécessaire de l'acheter, puisque certaines sociétés «louent» à distance la puissance de calcul de puce par le biais du cloud.
Pleine puissance (de calcul)
Initialement développée comme une carte graphique, destinée à être utilisée seule pour afficher des graphismes exigeants sur les jeux PC, la A100 travaille désormais en équipe.
Des centaines, voire des milliers de ces puces sont assemblées au sein de centres de données. Leur formidable puissance de calcul combinée sert à la fois à passer au peigne fin des quantités astronomiques de données afin d'y détecter des motifs récurrents (patterns) et pour l'inférence, c'est-à-dire la génération du texte ou de l'image associée.
Les A100 y sont parfois intégrées au sein du DGX A100, qui intègre huit A100 et fait la taille d'un PC de type tour, que Nvidia vend pour 200.000 dollars (188.000 euros environ), mais dont les capacités sont aussi disponibles en location dans le cloud.
Par rapport à une requête classique, l'utilisation d'un outil d'intelligence artificielle mobilise une puissance de calcul bien plus importante, ce qui oblige les entreprises du secteur à se doter d'une quantité colossale de puces pour supporter la «charge» des multiples utilisateurs, avec un coût substantiel à la clé.
«Si vous êtes Microsoft et que vous voulez faire ça à l'échelle de Bing, ça représente peut-être 4 milliards de dollars. Si vous êtes Google, qui traite 8 ou 9 milliards de requêtes chaque jour, vous devez dépenser 80 milliards de dollars en DGX», analyse Antoine Chkaiban, du cabinet spécialisé New Street Research.
Ceci représente logiquement une bonne affaire pour Nvidia. Au cours du dernier trimestre, cette activité a bondi de 11% pour représenter 3,6 milliards de dollars de chiffre d'affaires, alors que les ventes globales de l'entreprise ont décliné de 21%. Mais la concurrence commence à se réveiller: AMD, Intel, Google et Amazon ont déjà commencé à développer leurs propres puces.