Microprocesseurs : les géants, Google, Amazon et Microsoft en guerre pour faire vaciller Nvidia ?

0

La-Femme (Microprocesseurs ) – Menacé, l’empire de Nvidia, par l’un de ses principaux clients ? C’est la folle théorie qui s’est emparée du monde de la tech fin novembre, lorsque le média The Information a révélé que Meta était en pourparlers avec Google pour utiliser ses puces spécialisées dans ses propres centres de données. Si la nouvelle, qualifiée de « rumeur » par Google, n’a pas encore été confirmée, elle révèle un pan méconnu du business des géants du cloud : la conception de puces. Une activité qui ne date pas d’hier.

« Nous créons nos propres puces depuis 2015, raconte Anthony Cirot, vice-président EMEA Sud (Europe, Moyen-Orient, Afrique) de Google Cloud. Aujourd’hui, nos TPU [Tensor Processing Units] en sont à leur septième génération ! » Des puces au nom ésotérique, et pour cause : ces TPU sont spécifiquement utilisées par la société de Mountain View dans ses centres de données et ont été optimisées pour entraîner les modèles d’IA de l’entreprise. « Notre modèle Gemini tourne à 100 % sur nos TPU », se félicite Anthony Cirot.

Diminuer leur dépendance à Nvidia

Concevoir ses propres puces constitue une stratégie gagnante pour Google et ses concurrents : polyvalents, les semiconducteurs de Nvidia ne sont ni créés pour effectuer une tâche précise, ni élaborés pour une infrastructure spécifique. En développant ses puces Graviton et Trainium, Amazon a ainsi pu optimiser les performances et la consommation d’énergie de ses centres de données – et même développer un supercalculateur, Rainier, basé sur ces composants.
« Graviton nous permet de diviser par 2 à 3 notre consommation électrique pour un prix 30 % moindre, vante Stephan Hadinger, directeur technique d’AWS France. Et Anthropic a réduit de 30 % à 40 % sa facture en entraînant ses modèles via nos puces Trainium ! » Une philosophie dont s’est inspiré Microsoft en lançant ses gammes Cobalt et Maia pour optimiser les performances de son cloud Azure.

Voir les trois mousquetaires du cloud alignés n’est pas un hasard. Cette stratégie permet de diminuer leur dépendance à Nvidia, dont le PDG Jensen Huang a présenté le 6 janvier, lors du CES de Las Vegas, une nouvelle génération de puces encore plus rapides. Un point-clé pour gagner en compétitivité tout en réduisant les coûts de fonctionnement de l’IA et espérer atteindre la rentabilité.

« Il ne faut pas se fermer d’horizons »

De là à menacer Nvidia ? « Nvidia ne peut pas capter un marché aussi juteux et tripler sa valorisation sans que personne ne bouge, affirme Hanan Ouazan, associé chez Artefact. Sa position va baisser, mais le marché va tellement grossir que cela ne devrait pas être un problème pour lui. »

D’autant que les puces produites par Google ou Amazon, optimisées pour leurs propres serveurs, ne sont pas encore pertinentes dans d’autres contextes, là où les GPU (Graphics Processing Units) de Nvidia restent les plus performantes du marché pour un usage général. « Notre partenariat avec Nvidia reste fort, notamment dans la robotique, et ses puces sont toujours très demandées par nos clients », reconnaît Julien Groues, directeur d’AWS France et Europe du Sud.

Reste que l’idée de commercialiser ses propres puces n’est pas impensable, notamment chez Google, qui a déjà su adapter ses technologies pour des partenaires extérieurs comme Renault (« software-defined vehicle »). « Nos TPU sont disponibles à la location dans notre cloud, mais nous travaillons à pouvoir les utiliser indépendamment, se projette Anthony Cirot. Il ne faut pas se fermer d’horizons. » En attendant, Nvidia compte encore de beaux jours devant lui.