Nvidia, "l'ogre" qui commande l'avenir de l'IA, affole Wall Street
Euphorie boursière
Avec ses puces informatiques ultrapuissantes, l'Américain Nvidia est devenu incontournable pour toutes les entreprises qui développent des modèles d'intelligence artificielle. Créée en 1993 par le visionnaire Jensen Huang, la compagnie au caméléon, qui exerce un quasi monopole dans le secteur, vient même de dépasser les 2 000 milliards de dollars de capitalisation boursière. Mais ce succès fulgurant relance les inquiétudes sur un début de bulle spéculative.
Après avoir vu son cours de Bourse presque tripler en une année, le spécialiste des semi-conducteurs Nvidia a fait son entrée fin février dans le club très fermé des entreprises dont la capitalisation dépasse les 2 000 milliards de dollars, un niveau atteint par seulement trois autres firmes jusqu'à présent : Apple, Microsoft et le pétrolier Saudi Aramco.
Porté par les besoins colossaux de l'intelligence artificielle en puces électroniques, la compagnie californienne s'est imposée en un temps record comme un géant de la tech, surpassant en Bourse les mastodontes Google, Amazon et Meta.
Cette trajectoire ascendante remonte à la sortie de ChatGPT en novembre 2022. Le succès rencontré par le robot conversationnel d'OpenIA auprès du grand public fait de l'intelligence artificielle la nouvelle poule aux œufs d'or des investisseurs et pousse les entreprises de la tech à développer des nouveaux modèles de langage (LLM) toujours plus gourmands en puissance de calcul.
Une aubaine pour Nvidia qui, depuis le début des années 2000, domine le marché des cartes graphiques (GPU) prisées des amateurs de jeux vidéo en quête de graphismes détaillés et d'un "gameplay" plus fluide. "Ces puces Nvidia qui, à l'origine, étaient faites pour du rendu vidéo ont été détournées de leur usage parce qu'elles se trouvent être très bien optimisées pour les algorithmes utilisés en intelligence artificielle", explique Laurent Daudet, cofondateur de la start-up LightOn.
Le succès de Nvidia tient à un double pari remporté par son patron visionnaire, Jensen Huang. Au début des années 1990, il est l'un des rares à croire à la démocratisation du jeu vidéo qui, à l'époque, est un marché de niche, réservé à une poignée de privilégiés. Au tournant des années 2000, le succès de sa série de cartes graphiques GeForce et celui de la PlayStation 2 – qui reste à ce jour la console de salon la plus vendue au monde – lui donneront raison.
Le deuxième pari s'appelle Cuda. En 2006, Nvidia met au point une nouvelle architecture de calcul destinée à séduire le monde de la finance. Mais le projet, très coûteux, fait fuir les investisseurs. C'est sans compter l'avènement de l'IA. Plébiscité par les chercheurs, Cuda permet à Nvidia de revenir en grâce aux yeux des financiers et de livrer son premier supercalculateur en 2016, le DGX-1.
"Les dirigeants de Nvidia ont très bien anticipé cette vague de l'IA avec des processeurs spécialisés qui savent faire ce qu'on appelle les calculs matriciels en très grande dimension. Leur gros avantage, c'est aussi d'avoir mis au point un langage de programmation parfaitement adapté. C'est une combinaison 'hardware/software' [matériel/logiciel] qui fait qu'ils ont cette position quasi monopolistique aujourd'hui", estime Laurent Daudet.
Nvidia tout-puissant
Selon les estimations, Nvidia contrôle 80 % du marché des puces d'IA avancées. Dans cette ruée vers l'or, l'entreprise américaine vend "les pelles et les pioches", résume Alexandre Baradez, analyste chez IG France. "Tous les mastodontes de la tech sont obligés de passer par Nvidia pour commander des composants pour le traitement des données, le stockage et l'intelligence artificielle parce qu'ils sont bien plus puissants que ceux proposés par les concurrents. Leur avantage compétitif est à ce stade inégalé. C'est un ogre qui dévore tout", ajoute l'expert.
Symbole de cette domination, la puce H100 que toute la tech s'arrache depuis l'année dernière. Prix à l'unité : 37 000 euros. Selon Nvidia, ce monstre de puissance, composé de 80 milliards de transistors, permet aux modèles d'IA d'être entraînés neuf fois plus rapidement que la moyenne. Mark Zuckerberg a annoncé en janvier que Meta en posséderait 350 000 d'ici la fin de l'année. Le milliardaire Elon Musk en aurait acheté lui-même environ 10 000 pour pouvoir développer un modèle de langage concurrent à ChatGPT. Et la compagnie californienne compte bien conserver son avance technologique. Courant 2024, la nouvelle génération de puces dédiées à l'IA, les H200, se mettra au travail au sein de plusieurs supercalculateurs.
Mais cette position de quasi monopole n'est pas sans poser un certain nombre de problèmes, estime Laurent Daudet. "Il y a d'abord les questions de délai. Pour acheter de telles cartes, il faut parfois attendre jusqu'à un an pour être livré. Donc cela ralentit les progrès que l'on peut faire dans le domaine de l'IA. Et puis il y a aussi les prix très élevés qui forment une sorte de barrière à l'entrée, vraiment très haute pour les nouveaux entrants", regrette l'entrepreneur.
Cette hégémonie pourrait toutefois ne pas durer éternellement. La croissance insolente de Nvidia commence à agacer et plusieurs géants de la tech ont annoncé des projets pour sortir de leur dépendance aux composants de la marque au caméléon. Selon Bloomberg, le patron d'OpenAI, Sam Altman, tente de lever jusqu'à 7 000 milliards de dollars pour concevoir un empire dédié à la fabrication de puces. Microsoft compte aussi fabriquer des puces maison en s'associant avec AMD, le concurrent direct de Nvidia. Enfin, Google propose déjà ses Tensor Processing Units (TPU) pour accélérer la cadence des calculs liés à l'intelligence artificielle.
"Cette situation de monopole est regardée avec jalousie par beaucoup de gros constructeurs qui essaient de rattraper leur retard, notamment AMD et ses puces MI300X, qui sont très compétitives. De notre point de vue, ce serait plus sain pour tout le marché qu'il y ait plusieurs alternatives", plaide Laurent Daudet.
Mais selon les experts, Nvidia devrait conserver son trône encore plusieurs années. "En l'état, je pense que le seul risque pour Nvidia est de faire face à des problèmes d'approvisionnement", considère Larry Tentarelli, du cabinet de recherche Blue Chip Daily Trend Report, interrogé par l'AFP.
Car à la différence de ses rivaux Intel, Micron ou Texas Instruments, Nvidia, comme AMD, ne fabrique pas ses propres semi-conducteurs. Il utilise des sous-traitants, principalement le Taïwanais TSMC (Taiwan Semiconductor Manufacturing Company).
Trop tôt, trop cher ?
Aujourd'hui, seuls Microsoft et Apple font mieux que Nvidia à Wall Street. Une croissance insolente qui peut surprendre alors que l'entreprise ne figure même pas parmi les 150 premières au monde en fonction du chiffre d'affaires, et à peine dans le top 1 000 au nombre d'employés.
"Son chiffre d'affaires de 60 milliards de dollars est en très forte croissance. Il est vrai que c'est peu comparé à des mastodontes comme Amazon. Mais le gros avantage de Nvidia, et c'est ce qui explique sa valeur en Bourse, c'est qu'il y a des marges brutes absolument titanesques, actuellement de 74 %. Donc quand vous vendez un objet à un euro, il vous reste 74 centimes. C'est une rentabilité énorme pour une entreprise comme celle-ci", explique Alexandre Baradez.
"Si Nvidia reste sur le rythme de croissance que prévoit le marché, il est possible que d'ici deux ans, peut-être avant, l'entreprise dépasse la capitalisation d'Apple", anticipe Larry Tentarelli.
"En revanche, il faut souligner qu'une grande partie du chiffre d'affaires est liée à son activité 'data centers' [centres de données] et repose sur du renouvellement de matériel pour augmenter la puissance des serveurs. Mais une fois que cette transformation aura été effectuée par les grands prestataires de service comme Amazon et Microsoft, à quel rythme cette croissance va-t-elle se poursuivre ?", s'interroge Alexandre Baradez.
Enfin, l'autre grande inconnue tient aux promesses de l'IA elle-même. Va-t-elle réellement augmenter la productivité des entreprises et des particuliers ? Les grands du secteur vont-ils réussir à correctement monétiser leurs services ? Si certains experts ont évoqué un risque de bulle spéculative comme celle qui a affecté les valeurs technologiques en 1999, le parallèle est plutôt à chercher du côté de la période d'éclosion d'Internet quelques années plus tôt, affirme Alexandre Baradez.
"À cette époque, on a payé trop tôt et trop cher quelque chose qui était effectivement une révolution mais qui a nécessité plusieurs années avant d'être rentable", analyse l'expert. "Aujourd'hui, je trouve qu'il y a des caractéristiques qui nous ramènent quelques années en arrière. Le marché paye par anticipation des choses très positives concernant l'IA. Reste à savoir si le rythme de déroulement des événements sera celui qui est anticipé par les investisseurs."