Veille Technologique — GPU & IA
Veille technologique — BTS SIO SISR

Cartes graphiques & Intelligence Artificielle

La veille technologique désigne l'ensemble des activités de collecte, de suivi et d'interprétation des innovations dans un secteur donné. Elle vise à identifier les tendances émergentes afin de maintenir un avantage concurrentiel et d'éclairer la prise de décision stratégique.

Événements tracés
0
Période couverte
Oct. 2025 → Avr. 2026
Acteurs suivis
NVIDIA · AMD · Intel · Qualcomm
Part NVIDIA marché IA
0
%
CA NVIDIA 2026
215,9 milliards $

Qu'est-ce qu'une carte graphique dédiée à l'IA ? 01

Les GPU (Graphics Processing Unit) sont des composants initialement conçus pour afficher des images en haute résolution. Leur particularité : des milliers de petits cœurs de calcul capables de travailler en parallèle, contrairement au CPU qui n'en a que quelques-uns mais très puissants.

Au milieu des années 2000, des chercheurs de Stanford ont réalisé que cette architecture parallèle était idéale pour entraîner des réseaux de neurones artificiels.

⚙️
Entraînement des modèles
Analyse de milliards de données en parallèle, des centaines de fois plus vite qu'un CPU classique.
Inférence
Production de réponses en temps réel. Quand ChatGPT répond, c'est de l'inférence sur GPU.
🔄
Traitement parallèle
Des milliers d'opérations mathématiques simultanées — indispensable pour les réseaux de neurones.
Réseau de neurones (Deep Learning)
Système inspiré du cerveau humain qui apprend à reconnaître des patterns dans les données (images, texte, son…).
LLM — Large Language Model
Modèle d'IA entraîné sur des milliards de textes. Ex : ChatGPT, Gemini, Claude. Nécessite des centaines de GPU pour fonctionner.
Tensor Core
Composant spécialisé dans les GPU NVIDIA, optimisé pour les calculs matriciels de l'IA. Ce qui distingue un GPU IA d'une carte gaming.

Historique — Comment les GPU sont entrés dans l'IA 02
1993
Fondation de NVIDIA
Jensen Huang, Chris Malachowsky et Curtis Priem fondent NVIDIA dans un Denny's à San José. Objectif : révolutionner les graphismes pour les jeux vidéo.
1999
Naissance du terme "GPU"
NVIDIA sort le GeForce 256 — premier GPU au monde — et invente le terme. Révolution pour les jeux vidéo.
2006–2007
GPU Compute + lancement de CUDA
Stanford découvre que les GPU peuvent accélérer les calculs scientifiques. NVIDIA lance CUDA — le tournant fondateur du GPU IA.
2012
AlexNet — la révolution Deep Learning
AlexNet entraîné sur 2 GPU NVIDIA remporte ImageNet avec un score inédit. La course aux GPU IA commence officiellement.
2017
Architecture Transformer
Google publie "Attention is All You Need" — la base de ChatGPT et tous les LLM modernes.
2022–2023
Explosion de l'IA générative
ChatGPT (nov. 2022), Midjourney, Stable Diffusion… CA NVIDIA : 10 Mds$ (2020) → 130 Mds$ (2025).
2024–2026
Ère Blackwell & supercalculateurs IA
NVIDIA lance Blackwell pour les LLM à 1 000 Mds de paramètres. CA 2026 : 215,9 Mds$. Data centers investissent des centaines de milliards.

Les fondateurs de NVIDIA 03
JH
Jensen Huang
Co-fondateur & PDG depuis 1993
Surnommé le "Steve Jobs de l'IA". Lance CUDA en 2006. NVIDIA dépasse 5 000 Mds$ de valorisation sous sa direction.
CM
Chris Malachowsky
Co-fondateur & ingénieur principal
Venu de Sun Microsystems. A conçu les premières architectures GPU et posé les bases matérielles de NVIDIA.
CP
Curtis Priem
Co-fondateur & architecte technique
Créateur de puces chez IBM et Sun. A conçu les premières puces graphiques NVIDIA et l'architecture GPU moderne.

Les principaux acteurs du marché GPU IA 04
NVIDIA
Leader mondial — ~90–95% du marché
Fondée en 1993. Domine grâce à Blackwell et CUDA (5M développeurs). CA 2026 : 215,9 Mds$. Data Center = 91% des ventes.
Part GPU IA~92%
AMD
Principal concurrent — ~6–8%
Instinct MI300X/MI355X avec 192 Go HBM3E. 30% plus rapide que B200 sur Llama 405B. Meta signe 6GW de puces AMD en 2026.
Part GPU IA~6%
Intel
Challenger — <2% du marché
Gaudi 3 pour data centers. Bonne efficacité énergétique mais écosystème logiciel immature face à CUDA.
Part GPU IA<2%
Qualcomm / Apple / Google
IA embarquée — marché en forte croissance
NPU intégrés pour smartphones et AI PC. Apple Silicon, Snapdragon X Elite, Google Tensor permettent l'IA locale.
Segment IA localeCroissant
CUDA — Compute Unified Device Architecture
Plateforme logicielle NVIDIA (2006) pour programmer les GPU pour des calculs généraux. 5 millions de développeurs formés = verrou technologique majeur.
HBM — High Bandwidth Memory
Mémoire ultra rapide empilée en 3D. HBM3E transfère des données 10x plus vite que la mémoire classique. Indispensable pour les grands modèles IA.

Fresque — Évolution des GPU IA (Oct. 2025 → Avr. 2026) 05

Cliquez sur chaque carte pour révéler le détail complet de l'événement.

Oct 2025
10 oct. 2025NVIDIACliquer pour détails →
NVIDIA lance la production massive des GPU Blackwell
208 Mds transistors · NVLink 5 · 25x plus efficace que H100
10 oct. 2025NVIDIA← Fermer

L'architecture Blackwell est nommée en hommage au mathématicien David Harold Blackwell. Annoncée en mars 2024 au GTC, elle succède à Hopper (H100).

Blackwell en chiffres : 208 milliards de transistors (2,5x Hopper) · Procédé TSMC 4NP · 20 petaFLOPS en FP4 · 25x plus efficace énergétiquement · Prix ~30 000–40 000 $. Toute la production 2025 vendue avant d'arriver sur le marché.
NVLink 5e génération : Relie jusqu'à 576 GPU pour fonctionner comme un seul super-GPU. Débit : 1,8 To/s par GPU — essentiel pour les modèles à 1 000 milliards de paramètres.

Adopté immédiatement par AWS, Google, Microsoft, Meta, OpenAI, Oracle.

208 Mds transistorsNVLink 5TSMC 4NPLLM25x efficacité
NVIDIA Newsroom — Blackwell
Oct 2025
18 oct. 2025AMDCliquer pour détails →
AMD augmente la production des GPU Instinct MI300X
192 Go HBM3E · Principal concurrent NVIDIA · CEO Lisa Su
18 oct. 2025AMD← Fermer

Le MI300X embarque 192 Go de HBM3E (contre 80 Go pour le H100) — avantage clé pour faire tenir de très grands modèles sur une seule carte.

HBM3E : Mémoire empilée en 3D à 5,3 To/s. Volume élevé = modèles IA entiers sur une carte sans les découper sur plusieurs GPU.

Meilleure efficacité énergétique par watt. Les grandes entreprises diversifient leurs achats pour réduire leur dépendance à NVIDIA.

MI300XHBM3E 192 GoIA générativeEfficacité énergétique
AMD — Instinct MI300X
Nov 2025
7 nov. 2025IntelCliquer pour détails →
Intel améliore ses accélérateurs IA Gaudi 3
Meilleure efficacité énergétique · Inférence cloud optimisée
7 nov. 2025Intel← Fermer
Gaudi : Accélérateur IA issu de Habana Labs (racheté 2 Mds$ en 2019). Connectivité Ethernet intégrée — avantage sur NVLink propriétaire de NVIDIA.

Malgré une bonne efficacité énergétique, Intel reste très en retard faute d'un écosystème logiciel comparable à CUDA.

Gaudi 3Efficacité/wattCloudInférence
Intel — Gaudi 3
Déc 2025
3 déc. 2025LogicielCliquer pour détails →
Optimisation logicielle — PyTorch & TensorFlow pour Blackwell
+20 à 30% d'efficacité sans changer de matériel · FP4 natif
3 déc. 2025Logiciel← Fermer
PyTorch (Meta) & TensorFlow (Google) : Les deux principaux frameworks open-source pour l'IA. Ils font le lien entre le code des chercheurs et la puissance brute des GPU.
FP4 / FP8 : Formats de calcul réduits qui accélèrent les modèles IA avec une perte de précision négligeable. Blackwell est le premier GPU à supporter nativement le FP4.
PyTorchTensorFlowFP4/FP8+30% perf
PyTorch Blog
Jan 2026
6 jan. 2026CES 2026Cliquer pour détails →
CES 2026 — L'ère des "AI PC" officiellement lancée
NVIDIA · AMD · Intel · Qualcomm · IA locale sans cloud
6 jan. 2026CES 2026← Fermer

Le CES 2026 (plus grand salon tech mondial, Las Vegas) marque l'entrée de l'IA dans les PC grand public. NVIDIA présente les RTX 50 (Blackwell gaming).

AI PC : Ordinateur avec NPU intégré pour exécuter l'IA localement. Avantages : confidentialité, hors connexion, latence réduite.
NPU (Neural Processing Unit) : Puce spécialisée IA pour tâches légères. Présent dans Intel Core Ultra, AMD Ryzen AI, Snapdragon X.
AI PCNPURTX 5090IA locale
Generation-NT — CES 2026
Fév 2026
5 fév. 2026MarchéCliquer pour détails →
Explosion des investissements dans les data centers IA
Microsoft · Google · Amazon · Meta · Stargate 500 Mds$
5 fév. 2026Marché← Fermer
Data center IA : Centre regroupant des milliers de GPU interconnectés. Le projet Stargate (OpenAI/Microsoft) prévoit 500 Mds$ d'investissement aux USA.

Impact direct : pénurie mondiale de GPU, hausse des prix, délais 6–12 mois. NVIDIA : 68,1 Mds$ de CA au seul Q4 2025, dont 91% Data Center.

Stargate 500Mds$Pénurie GPUMicrosoftGoogleMeta
LeBigData.fr — Investissements IA 2026
Mars 2026
4 mars 2026NVIDIACliquer pour détails →
NVIDIA — CA record 215,9 Mds$ · Parts de marché consolidées
91% Data Center · +65% sur un an · Valorisation >5 000 Mds$
4 mars 2026NVIDIA← Fermer
NVIDIA~92%
AMD~6%
Intel + autres~2%
Pourquoi NVIDIA est imbattable ? 1) CUDA : 5M développeurs verrouillés. 2) Écosystème full-stack. 3) Partenariats exclusifs. 4) Capacités TSMC réservées à l'avance.
215 Mds$ CA91% Data CenterCUDA lock-in
CowCotLand — Résultats NVIDIA 2026
Mars 2026
Mars 2026MarchéNouveauCliquer →
L'IA provoque une pénurie de GPU gaming — les joueurs paient les frais
GPU gaming = marché secondaire · RTX 50 Super repoussée · Prix en hausse
Mars 2026Marché← Fermer

L'explosion des besoins IA force NVIDIA et AMD à réallouer leur production vers les accélérateurs IA, bien plus lucratifs (marge 69%) que les GPU gaming (marge 40%).

Conséquences pour les joueurs : RTX 50 Super repoussée sans date. Pénurie de mémoire GDDR/HBM. 2026 pourrait être la première année sans nouvelle génération gaming NVIDIA depuis 30 ans.
Pénurie gamingRTX 50 Super reportéeMarge 69% IA2026 sans new gen
HardwareCooking — Pénurie GPU gaming
Avr 2026
6 avr. 2026GéopolitiqueNouveauCliquer →
DeepSeek abandonne NVIDIA pour Huawei — début du découplage ?
Chine vs USA · Huawei Ascend · Restrictions export GPU · -17% bourse
6 avr. 2026Géopolitique← Fermer
Pourquoi la Chine ne peut plus acheter NVIDIA ? Depuis 2022, les USA interdisent l'export des GPU IA puissants (H100, H200, Blackwell) vers la Chine pour empêcher le développement de supercalculateurs militaires.
DeepSeek : Startup chinoise avec un modèle IA très performant. L'annonce de son passage à Huawei a fait chuter NVIDIA en bourse de 17% en une journée.
DeepSeekHuawei AscendRestrictions USA-Chine-17% bourse
Clubic — DeepSeek abandonne NVIDIA
Avr 2026
9 avr. 2026MarchéNouveauCliquer →
Meta investit 35,2 Mds$ dans CoreWeave + 6GW de puces AMD
Fin de l'ère du fournisseur unique · Meta 135 Mds$ IA en 2026
9 avr. 2026Marché← Fermer
CoreWeave : Société de location de GPU en cloud soutenue par NVIDIA. Meta y loue de la puissance de calcul immédiatement disponible en attendant ses propres data centers.

Parallèlement, Meta signe un contrat de 6 gigawatts de puces AMD pour réduire sa dépendance à NVIDIA. Signal fort : même les plus gros clients cherchent des alternatives.

CoreWeave 35Mds$AMD 6GWMeta 135Mds$ IA
DeveloppezCom — Meta/CoreWeave
Avr 2026
9 avr. 2026NVIDIANouveauCliquer →
Feuille de route révisée — Blackwell domine 2026, Rubin retardé
Blackwell = 70% livraisons · Rubin : 22% vs 29% prévu
9 avr. 2026NVIDIA← Fermer
Architecture Rubin (future génération) : Successeur de Blackwell avec 3 puces par GPU et interconnexions optiques. Initialement prévu à 29% des livraisons 2026, révisé à 22% à cause de défis techniques et tensions géopolitiques.

Les modèles GB300 et B300 (Blackwell Ultra) sont les fers de lance de NVIDIA pour 2026. Blackwell dominera jusqu'en 2027 minimum.

Blackwell 70% livraisonsRubin retardéGB300B300
Generation-NT — Rubin retardé
Avr 2026
Avr. 2026NVIDIANouveauCliquer →
NVIDIA veut envoyer l'IA dans l'espace — "Space-1 Vera Rubin"
Data centers orbitaux · Traitement IA en orbite · Satellites intelligents
Avr. 2026NVIDIA← Fermer

NVIDIA annonce vouloir déployer ses GPU dans l'espace via un satellite "Space-1 Vera Rubin Module", conçu pour atteindre les performances d'un data center traditionnel en orbite.

Pourquoi l'IA dans l'espace ? Les satellites actuels envoient les données sur Terre pour analyse — latence élevée, bande passante limitée. Avec des GPU en orbite : détection instantanée d'incendies, suivi météo, observation en temps réel.
Limites : Sam Altman (OpenAI) qualifie le projet de "ridicule" — coûts de lancement énormes, maintenance impossible en orbite. NVIDIA vise avant tout à s'imposer là où aucun concurrent n'est encore allé.
Space-1 Vera RubinData center orbitalSatellites IA
JournalDuGeek — NVIDIA dans l'espace
Actuel
Avr. 2026NVIDIAActuelCliquer →
Blackwell Ultra (GB300) confirmé — vers l'architecture Rubin 2027
288 Go HBM3E · 1400W · 2x performances attention LLM · Token/s nouvelle unité
Avr. 2026NVIDIAActuel← Fermer

NVIDIA confirme Blackwell Ultra : 288 Go HBM3E (+50%), consommation 1400W, performances 2x supérieures sur les couches d'attention des LLM.

Token — nouvelle unité de valeur IA : Jensen Huang au GTC 2026 propose de mesurer la valeur d'un GPU en tokens/seconde plutôt qu'en FLOPS. Un token = unité de base du texte traité par un LLM.
Architecture Rubin (2027) : 3 puces par GPU + interconnexions optiques. Promet ~5x d'amélioration d'inférence vs Blackwell.
Blackwell Ultra288 Go HBM3EToken/sRubin 2027
NVIDIA — Architecture Blackwell

Outils utilisés pour la veille 06
🔔 Google Alertes
Alertes e-mail automatiques sur des mots-clés pour recevoir les nouveaux articles en temps réel.
GPU IANVIDIA BlackwellAMD Instinct
📰 Feedly
Agrégateur de flux RSS pour centraliser et suivre les publications de sites tech spécialisés en continu.
Tom's HardwareClubicLeBigData.fr
💼 LinkedIn
Veille professionnelle via les publications d'experts, ingénieurs et entreprises du secteur tech et IA.
Jensen HuangNVIDIAAMD
🐦 X (Twitter)
Suivi en temps réel des annonces officielles des constructeurs et des analyses des experts GPU/IA.
@NVIDIA@AMD#GPU #AI
📡 NVIDIA Newsroom
Source officielle NVIDIA pour toutes les annonces produits, résultats financiers et innovations.
nvidianews.nvidia.com
🤖 ChatGPT / Claude
Aide à la synthèse et à la rédaction des informations collectées pour les présenter clairement.
SynthèseRédactionAnalyse
Sources principales : NVIDIA Newsroom · Wikipédia · Generation-NT · Clubic · LeBigData.fr · CowCotLand · HardwareCooking · JournalDuGeek · DeveloppezCom · GPUnex · PauseHardware — Dernière mise à jour : 20 Avril 2026