La guerre des GPU : NVIDIA, AMD et Intel se disputent le marché de l’IA

Un marché en ébullition : pourquoi les GPU sont devenus le nerf de la guerre de l’IA

Si vous avez suivi l’actualité technologique ces dernières années, vous avez sans doute entendu parler des GPU — ces puces graphiques initialement conçues pour faire tourner les jeux vidéo en haute résolution. Aujourd’hui, elles sont devenues le composant le plus stratégique de toute l’industrie de l’intelligence artificielle. En septembre 2025, la bataille entre les trois géants du secteur — NVIDIA, AMD et Intel — n’a jamais été aussi intense. Et les enjeux dépassent largement le simple cadre technologique : il s’agit d’une course à la domination industrielle mondiale, dans laquelle la France et l’Europe tentent de trouver leur place.

NVIDIA, le géant indéboulonnable… mais sous pression

Depuis plusieurs années, NVIDIA règne en maître absolu sur le marché des puces dédiées à l’IA. Ses cartes de la série H100, puis H200, sont devenues la référence incontournable pour entraîner les grands modèles de langage (LLM) comme ceux qui font tourner ChatGPT ou Mistral. En 2025, la firme de Jensen Huang a dévoilé sa nouvelle architecture Blackwell, promettant des performances deux à trois fois supérieures à la génération précédente pour les charges de travail liées à l’IA générative. Les centres de données du monde entier — y compris ceux d’OVHcloud et de Scaleway en France — se ruent sur ces composants, parfois avec des délais de livraison de plusieurs mois.

Mais NVIDIA n’est plus seul sur ce terrain. La position dominante de l’entreprise — qui captait encore plus de 80 % du marché des GPU pour l’IA il y a deux ans — commence à s’éroder sous la pression combinée de ses deux principaux concurrents, mais aussi sous celle des géants du numérique qui développent leurs propres puces en interne. Google avec ses TPU, Amazon avec ses Trainium et Inferentia, ou encore Meta avec ses MTIA : tout le monde cherche à réduire sa dépendance vis-à-vis de Santa Clara.

AMD monte en puissance avec ses Instinct MI300

AMD a longtemps été perçu comme le challenger éternel, celui qui joue dans la cour des grands sans jamais vraiment y entrer. Mais en 2025, la donne a changé. La série Instinct MI300X, puis les nouvelles puces MI350 annoncées cette année, proposent des performances qui rivalisent sérieusement avec les offres de NVIDIA, notamment sur les tâches d’inférence — c’est-à-dire l’utilisation d’un modèle déjà entraîné pour répondre à des requêtes en temps réel. Plusieurs grands acteurs du cloud, dont Microsoft Azure, ont annoncé des déploiements massifs de puces AMD pour diversifier leurs approvisionnements.

Ce qui joue en faveur d’AMD, c’est aussi l’écosystème logiciel. Pendant longtemps, CUDA — la plateforme de programmation propriétaire de NVIDIA — constituait un verrou quasi infranchissable : les développeurs formés sur cet outil ne souhaitaient pas migrer. Mais des initiatives open source comme ROCm, la plateforme équivalente d’AMD, ont mûri considérablement. Des frameworks majeurs comme PyTorch supportent désormais ROCm de manière beaucoup plus stable, ce qui lève progressivement ce frein historique. Pour les entreprises françaises qui cherchent à s’affranchir d’une dépendance technologique trop marquée, c’est une ouverture bienvenue.

Intel et son pari risqué sur les Gaudi

Intel, de son côté, joue une partition plus délicate. Le géant américain, longtemps roi incontesté des processeurs pour ordinateurs et serveurs, a pris du retard dans la transition vers l’IA. Sa réponse s’appelle Gaudi — une gamme d’accélérateurs IA rachetée avec l’acquisition d’Habana Labs en 2019. La troisième génération, Gaudi 3, a été présentée comme une alternative économique aux GPU de NVIDIA, avec un rapport performance/prix mis en avant comme principal argument commercial.

En pratique, les retours sont mitigés. Si Gaudi 3 tient ses promesses sur certains benchmarks spécifiques, l’écosystème logiciel reste moins mature que celui de ses concurrents. Intel mise beaucoup sur les partenariats avec des acteurs industriels européens et sur les appels d’offres publics, notamment en lien avec les initiatives de souveraineté numérique portées par la Commission européenne. En France, le plan gouvernemental pour doter le pays de supercalculateurs dédiés à l’IA — dans le prolongement des annonces faites lors du Sommet pour l’action sur l’IA de Paris en février 2025 — pourrait constituer une opportunité pour Intel de s’imposer sur un segment où NVIDIA est moins bien positionné politiquement.

La dimension française et européenne de cette bataille

Pour la France, cette guerre des GPU n’est pas qu’un spectacle de loin. Elle touche directement les ambitions nationales en matière d’IA souveraine. Depuis les annonces d’Emmanuel Macron concernant les investissements massifs dans l’infrastructure IA française — avec notamment le déploiement de nouveaux clusters de calcul pour soutenir des acteurs comme Mistral AI — la question de l’approvisionnement en puces de haute performance est devenue stratégique.

Le problème, c’est que l’Europe ne fabrique pas ces puces. TSMC, le fondeur taïwanais, produit l’essentiel des GPU avancés pour NVIDIA et AMD. Intel fabrique une partie de ses puces en interne, mais ses usines européennes — notamment celle en construction en Allemagne — ne seront pas opérationnelles avant plusieurs années. Cette dépendance structurelle inquiète les décideurs publics français, qui poussent pour une accélération du projet européen de semi-conducteurs (EU Chips Act). En attendant, les acteurs français de l’IA naviguent dans un marché tendu, où obtenir les bonnes puces au bon moment peut faire la différence entre un projet qui avance et un projet qui stagne. La guerre des GPU, en somme, se joue aussi dans les couloirs des ministères parisiens.