NVIDIA : pourquoi le roi des GPU n’est pas le meilleur pari pour votre portefeuille

Mars 2026 · 18 min de lecture

NVIDIA est une machine à cash sans équivalent dans l’histoire économique moderne. $216 milliards de revenus annuels, $97 milliards de free cash flow, une marge opérationnelle de 60%, une trésorerie nette de $51 milliards et une dette quasi inexistante. Sa capitalisation de $4 200 milliards dépasse à elle seule celle des 40 plus grandes entreprises françaises réunies.

Alors pourquoi ne pas simplement acheter NVIDIA et passer à autre chose ?

Parce que dans l’investissement, la qualité d’une entreprise et la qualité d’un investissement sont deux choses distinctes. Un actif extraordinaire acheté au mauvais prix, au mauvais moment, ou quand tout le monde regarde au même endroit, peut sous-performer un actif simplement bon mais mal compris par le marché.

Cet article n’est pas un réquisitoire contre NVIDIA. C’est une analyse de pourquoi l’investisseur macro-stratégique — celui qui cherche à se positionner là où le marché ne regarde pas encore — a probablement de meilleures options dans l’écosystème AI.

Partie 1 — La forteresse NVIDIA, et ses fissures

Ce que tout le monde sait

Les chiffres sont spectaculaires, et ils sont réels. NVIDIA domine le marché des accélérateurs AI avec plus de 80% de parts de marché en revenus. Le CUDA moat — son écosystème logiciel propriétaire — verrouille des millions de développeurs. Chaque hyperscaler, chaque startup AI, chaque gouvernement qui construit un cluster de calcul souverain passe par NVIDIA.

Le forward P/E est tombé à 21x, en forte compression par rapport à sa moyenne historique de 70x. Le PEG ratio de 0,55 suggère que le titre est techniquement sous-évalué par rapport à sa croissance. Jensen Huang projette $1 000 milliards de revenus cumulés sur Blackwell et Vera Rubin d’ici 2027.

Tout cela est vrai. Mais c’est aussi parfaitement intégré dans le prix.

Ce que le marché commence à voir

Le véritable risque pour NVIDIA n’est pas un effondrement de la demande AI. C’est l’érosion progressive de son monopole par le custom silicon — les puces conçues en interne par ses propres clients.

Google TPU — Le challenger sérieux

Google vend désormais ses TPU en externe. Ce n’est plus un chip interne captif de Google Cloud — c’est un produit commercial concurrent. Le deal avec Anthropic (jusqu’à 1 million de TPU, plus d’un gigawatt de capacité) représente l’un des plus gros engagements hardware de l’histoire de l’AI.

Le TPUv7 « Ironwood » affiche 4 614 TFLOPs par puce en FP8 et 192 Go de HBM avec 7,37 To/s de bande passante. Les deux modèles AI les plus avancés au monde — Claude d’Anthropic et Gemini 3 de Google — tournent majoritairement sur du non-NVIDIA. Il y a 18 mois, c’était impensable.

Amazon Trainium — L’offensive industrielle

AWS déploie une nouvelle génération par an. Le Trainium 3 monte en charge au Q2 2026. Le projet Rainier dédie 400 000 puces Trainium2 à Anthropic. Plus frappant encore : AWS a annoncé que le Trainium4 intégrera le NVLink 6 de NVIDIA — une approche hybride qui exploite l’interconnect de NVIDIA pour alimenter un chip concurrent.

Meta MTIA — Le « swing voter »

Meta est le client le plus dangereux pour NVIDIA. Contrairement aux cloud providers, Meta n’a pas besoin du logo NVIDIA pour vendre des services cloud à des tiers. Toute sa consommation est interne (recommandation Instagram, modération Facebook, publicité ciblée). Meta peut donc pivoter vers AMD, Google TPU ou son propre MTIA dès que le TCO le justifie.

En 2026, Meta est simultanément engagé dans un deal Blackwell/Rubin avec NVIDIA, un deal AMD de 6 GW pour du MI450 custom, développe MTIA 450/500, et explore l’accès aux TPU Google. C’est l’agnosticisme compute en action.

Microsoft Maia — Le retardataire

Maia 200 a été repoussé de 6 mois, 20% de l’équipe a quitté le projet, et même livré, il sera loin de Blackwell. Microsoft reste le client le plus captif de NVIDIA, ce qui est paradoxalement positif pour le bull case à court terme, mais révèle la fragilité de la dépendance mono-fournisseur.

L’érosion est graduelle, mais structurelle

Le consensus estime que le custom silicon capturera 15% à 25% de parts de marché sur les 2-3 prochaines années, principalement sur les workloads d’inférence internes des hyperscalers. NVIDIA passerait de 85%+ à environ 75% — toujours dominant, mais la trajectoire est descendante.

Le problème pour l’investisseur : NVIDIA à 75% de part de marché d’un TAM de $400 milliards justifie-t-il la même valorisation qu’à 85% ? Probablement pas. Le marché va graduellement recomprimer les multiples.

Les autres signaux d’alerte

Au-delà du custom silicon, trois facteurs méritent attention. Premièrement, les insiders. Sur les 12 derniers mois, les dirigeants de NVIDIA ont exclusivement vendu des actions — plus de 6,5 millions d’unités, avec zéro achat. Ce n’est pas nécessairement bearish (la compensation en actions est massive), mais l’absence totale d’achats est un signal.

Deuxièmement, le bêta de 2,37. Dans un environnement géopolitique tendu (tensions Iran/Hormuz, fragmentation commerciale Chine), un drawdown marché de 10% se traduit par un drawdown NVIDIA d’environ 23%. C’est un amplificateur de volatilité, pas un refuge.

Troisièmement, la concentration client. Les cinq plus gros clients (Microsoft, Meta, Google, Amazon, Oracle) représentent la quasi-totalité des revenus datacenter. Ce n’est pas une base diversifiée — c’est un oligopsone où chaque client a un intérêt stratégique à réduire sa dépendance.

Partie 2 — Où regarder à la place : les « picks and shovels » de la révolution AI

La ruée vers l’or de 1849 a enrichi quelques mineurs chanceux. Mais ceux qui ont systématiquement gagné sont les vendeurs de pioches, de pelles, de jeans (Levi Strauss) et les opérateurs de transport. L’analogie s’applique parfaitement au cycle AI.

Chaque GPU déployé — qu’il soit de NVIDIA, Google, AMD ou Amazon — a besoin d’électricité, de cuivre, de stockage et de mémoire. Ce sont les invariants du cycle, quelle que soit l’issue de la guerre des puces.

1. L’uranium et le nucléaire — L’énergie des datacenters

Un rack de 8 GPU Blackwell B200 consomme environ 14 kW. Un datacenter de 100 MW nécessite des milliers de racks. Les hyperscalers ont collectivement annoncé plus de $710 milliards de capex en 2026, et l’énergie est le premier goulot d’étranglement.

Le nucléaire est la seule source capable de fournir de l’énergie baseload décarbonée à l’échelle requise. Microsoft a signé avec Constellation Energy pour relancer Three Mile Island. Amazon investit dans les SMR. Google explore les partenariats nucléaires.

Ticker Entreprise Profil Thèse
CCJ Cameco Premier producteur uranium occidental Supply/demand structurellement déficitaire. Contrats long terme. Cash flow positif.
NXE NexGen Energy Développeur — Rook I (Saskatchewan) Le plus gros gisement non développé. CNSC approuvé mars 2026. Profil risque/rendement asymétrique.
DNN Denison Mines Développeur — Phoenix (ISR) Technologie ISR innovante. Production ciblée mi-2028. Low cost si la géologie confirme.

L’avantage : ces positions sont décorrélées du risque custom silicon. Que le GPU gagnant soit NVIDIA, Google ou AMD, tous consomment de l’électricité. Le marché de l’uranium est en déficit structurel depuis la fermeture de mines post-Fukushima, et la demande AI accélère la contraction de l’offre.

2. Le cuivre — Le métal de l’infrastructure

Chaque datacenter nécessite des dizaines de milliers de tonnes de cuivre pour le câblage, les barres de distribution, les transformateurs et les systèmes de refroidissement. Le cuivre est aussi essentiel à la transition énergétique (éolien, solaire, véhicules électriques) — double catalyseur de demande.

Ticker Entreprise Profil Thèse
FCX Freeport-McMoRan Premier producteur cuivre coté US Levier opérationnel massif sur le prix du cuivre. Grasberg (Indonésie) = mine de classe mondiale.
COPX Global X Copper Miners ETF minières cuivre Exposition diversifiée au secteur. Évite le risque single stock.

Le déficit d’offre en cuivre est estimé à 6-8 millions de tonnes d’ici 2030. Ouvrir une nouvelle mine prend 10 à 15 ans. C’est un bottleneck physique que ni Google ni NVIDIA ne peuvent résoudre par l’innovation logicielle.

3. Le stockage — Le goulot oublié du cycle AI

L’entraînement d’un seul grand modèle de langage génère des pétaoctets de données. L’inférence à grande échelle nécessite un stockage rapide et massif. Chaque datacenter AI est autant un centre de stockage qu’un centre de calcul.

Ticker Entreprise Profil Thèse
WDC Western Digital Disques durs et NAND flash Pénurie de capacité storage. Pricing power en hausse. Exposition directe au buildout AI.
STX Seagate Leader HDD enterprise Nearline drives en forte demande. Cycle de remplacement + croissance nette des capacités.
MU Micron DRAM + NAND + HBM HBM (High Bandwidth Memory) est le composant critique de chaque GPU. Micron est un des 3 fournisseurs mondiaux.

L’angle stratégique : quand CNBC titre sur NVIDIA, personne ne parle de Western Digital. Pourtant, chaque GPU B200 nécessite des téraoctets de stockage pour fonctionner. Le ratio attention médiatique / importance réelle est massivement déséquilibré en faveur de ces positions.

4. La mémoire HBM — Le vrai bottleneck

La High Bandwidth Memory est le composant le plus critique et le plus contraint de l’écosystème GPU. Chaque Blackwell B200 utilise 8 stacks de HBM3e. Le marché est un oligopole de trois acteurs : SK Hynix (62% de part de marché), Samsung et Micron.

SK Hynix n’étant pas facilement accessible aux investisseurs européens via un ticker simple, Micron (MU) représente la meilleure exposition directe. Micron a franchi le milliard de dollars de revenus HBM en un seul trimestre fiscal début 2025, et la demande continue d’accélérer.

Partie 3 — Le framework : pourquoi ces positions sont structurellement supérieures

Le test de l’invariant

Posez-vous cette question pour chaque position : « Si le gagnant de la guerre des puces AI change, est-ce que ma thèse tient toujours ? »

Position NVIDIA gagne Google TPU gagne Multi-vendor
NVDA ✓ Fort ✗ Compression ~ Correct
CCJ (uranium) ✓ Tous consomment ✓ Tous consomment ✓ Tous consomment
FCX (cuivre) ✓ Infra physique ✓ Infra physique ✓ Infra physique
WDC/STX (storage) ✓ Data grandit ✓ Data grandit ✓ Data grandit
MU (HBM) ✓ Chaque GPU ✓ Chaque TPU aussi ✓ Universel

L’uranium, le cuivre, le stockage et la mémoire HBM sont des invariants du cycle AI. Ils gagnent quel que soit le scénario compétitif. NVIDIA, en revanche, est un pari directionnel sur le maintien de son monopole — un pari qui s’érode structurellement.

Le ratio consensus / edge

Un autre filtre utile : quel est votre avantage informationnel sur chaque position ?

Sur NVIDIA, vous n’en avez aucun. Chaque analyste de Wall Street, chaque fonds quantitatif, chaque retail investor suit le titre. Le prix intègre toute l’information disponible avec une efficience quasi parfaite. C’est le trade le plus consensuel du marché.

Sur Cameco ou Western Digital, le ratio couverture/importance est massivement déséquilibré. Le marché de l’uranium est suivi par une poignée de spécialistes. Le storage enterprise fait rarement la une de CNBC. C’est précisément là que des écarts de valorisation peuvent persister — et où l’investisseur diligent a un avantage.

Valorisation comparative

Métrique NVDA CCJ FCX MU WDC
Forward P/E ~21x ~28x ~18x ~10x ~8x
Market Cap $4 200 Md $30 Md $60 Md $100 Md $18 Md
Risque custom silicon Élevé Aucun Aucun Faible (fournit tout le monde) Aucun
Couverture analystes Maximale Limitée Modérée Bonne Faible
Bêta 2,37 ~1,5 ~1,8 ~1,4 ~1,3

Partie 4 — Comment se positionner concrètement

Le portefeuille « AI Infrastructure » sans NVIDIA

L’idée n’est pas d’exclure totalement NVIDIA, mais de construire une exposition AI qui ne dépende pas d’un seul gagnant. Un portefeuille type pourrait se structurer ainsi :

Bloc Positions Allocation cible Rôle
Énergie CCJ, NXE, DNN 8-12% Bénéficiaire universel du buildout datacenter + supercycle uranium
Cuivre FCX, COPX 5-8% Déficit structurel + double catalyseur (AI + transition énergétique)
Stockage WDC, STX 4-6% Goulot oublié, faible couverture, pricing power en hausse
Mémoire MU 3-5% HBM fournit tous les accélérateurs, pas seulement NVIDIA
GPU (satellite) NVDA 3-5% Exposition directe au leader, mais sizing satellite, pas core

Ce portefeuille donne 23-36% d’exposition totale au cycle AI, mais seulement 3-5% de risque direct sur l’issue de la guerre des puces. Le reste est positionné sur les invariants physiques — l’énergie, les métaux, le stockage et la mémoire — que tout le monde consomme quelle que soit l’architecture choisie.

La patience comme avantage compétitif

Le meilleur moment pour acheter NVIDIA était à $12 en 2023, quand personne ne comprenait encore ce que ChatGPT signifiait pour la demande GPU. Aujourd’hui, tout le monde comprend. Le marché intègre une croissance spectaculaire — et toute déception sera punie sévèrement.

Le meilleur moment pour acheter de l’uranium, du cuivre et du storage, c’est quand CNBC ne les mentionne pas. C’est-à-dire maintenant.

Points clés

  • NVIDIA est une entreprise extraordinaire — mais la qualité de l’entreprise ne garantit pas la qualité de l’investissement quand le consensus est déjà positionné.
  • Le custom silicon érode le moat — Google TPU vendu en externe, Trainium 3/4 d’Amazon, MTIA de Meta. L’érosion de 85% à 75% de parts de marché est graduelle mais structurelle.
  • Les invariants du cycle AI (uranium, cuivre, stockage, HBM) gagnent quel que soit le scénario compétitif entre les fournisseurs de puces.
  • Le ratio couverture/importance est massivement déséquilibré en faveur des « picks and shovels » — c’est là que l’investisseur indépendant a un avantage informationnel.
  • NVIDIA en satellite (3-5%), pas en core conviction. Le gros de l’exposition AI doit être sur l’infrastructure physique invariante.

Cet article ne constitue pas un conseil en investissement. Les positions mentionnées peuvent être détenues par l’auteur. Faites vos propres recherches avant toute décision d’investissement.