La veille technologique désigne l'ensemble des activités de collecte, de suivi et d'interprétation des innovations dans un secteur donné. Elle vise à identifier les tendances émergentes afin de maintenir un avantage concurrentiel et d'éclairer la prise de décision stratégique.
Événements tracés
0
Période couverte
Oct. 2025 → Avr. 2026
Acteurs suivis
NVIDIA · AMD · Intel · Qualcomm
Part NVIDIA marché IA
0
%
CA NVIDIA 2026
215,9 milliards $
Qu'est-ce qu'une carte graphique dédiée à l'IA ? 01
Les GPU (Graphics Processing Unit) sont des composants initialement conçus pour afficher des images en haute résolution. Leur particularité : des milliers de petits cœurs de calcul capables de travailler en parallèle, contrairement au CPU qui n'en a que quelques-uns mais très puissants.
Au milieu des années 2000, des chercheurs de Stanford ont réalisé que cette architecture parallèle était idéale pour entraîner des réseaux de neurones artificiels.
⚙️
Entraînement des modèles
Analyse de milliards de données en parallèle, des centaines de fois plus vite qu'un CPU classique.
⚡
Inférence
Production de réponses en temps réel. Quand ChatGPT répond, c'est de l'inférence sur GPU.
🔄
Traitement parallèle
Des milliers d'opérations mathématiques simultanées — indispensable pour les réseaux de neurones.
Réseau de neurones (Deep Learning)
Système inspiré du cerveau humain qui apprend à reconnaître des patterns dans les données (images, texte, son…).
LLM — Large Language Model
Modèle d'IA entraîné sur des milliards de textes. Ex : ChatGPT, Gemini, Claude. Nécessite des centaines de GPU pour fonctionner.
Tensor Core
Composant spécialisé dans les GPU NVIDIA, optimisé pour les calculs matriciels de l'IA. Ce qui distingue un GPU IA d'une carte gaming.
Historique — Comment les GPU sont entrés dans l'IA 02
1993
Fondation de NVIDIA
Jensen Huang, Chris Malachowsky et Curtis Priem fondent NVIDIA dans un Denny's à San José. Objectif : révolutionner les graphismes pour les jeux vidéo.
1999
Naissance du terme "GPU"
NVIDIA sort le GeForce 256 — premier GPU au monde — et invente le terme. Révolution pour les jeux vidéo.
2006–2007
GPU Compute + lancement de CUDA
Stanford découvre que les GPU peuvent accélérer les calculs scientifiques. NVIDIA lance CUDA — le tournant fondateur du GPU IA.
2012
AlexNet — la révolution Deep Learning
AlexNet entraîné sur 2 GPU NVIDIA remporte ImageNet avec un score inédit. La course aux GPU IA commence officiellement.
2017
Architecture Transformer
Google publie "Attention is All You Need" — la base de ChatGPT et tous les LLM modernes.
NVIDIA lance Blackwell pour les LLM à 1 000 Mds de paramètres. CA 2026 : 215,9 Mds$. Data centers investissent des centaines de milliards.
Les fondateurs de NVIDIA 03
JH
Jensen Huang
Co-fondateur & PDG depuis 1993
Surnommé le "Steve Jobs de l'IA". Lance CUDA en 2006. NVIDIA dépasse 5 000 Mds$ de valorisation sous sa direction.
CM
Chris Malachowsky
Co-fondateur & ingénieur principal
Venu de Sun Microsystems. A conçu les premières architectures GPU et posé les bases matérielles de NVIDIA.
CP
Curtis Priem
Co-fondateur & architecte technique
Créateur de puces chez IBM et Sun. A conçu les premières puces graphiques NVIDIA et l'architecture GPU moderne.
Les principaux acteurs du marché GPU IA 04
NVIDIA
Leader mondial — ~90–95% du marché
Fondée en 1993. Domine grâce à Blackwell et CUDA (5M développeurs). CA 2026 : 215,9 Mds$. Data Center = 91% des ventes.
Part GPU IA~92%
AMD
Principal concurrent — ~6–8%
Instinct MI300X/MI355X avec 192 Go HBM3E. 30% plus rapide que B200 sur Llama 405B. Meta signe 6GW de puces AMD en 2026.
Part GPU IA~6%
Intel
Challenger — <2% du marché
Gaudi 3 pour data centers. Bonne efficacité énergétique mais écosystème logiciel immature face à CUDA.
Part GPU IA<2%
Qualcomm / Apple / Google
IA embarquée — marché en forte croissance
NPU intégrés pour smartphones et AI PC. Apple Silicon, Snapdragon X Elite, Google Tensor permettent l'IA locale.
Segment IA localeCroissant
CUDA — Compute Unified Device Architecture
Plateforme logicielle NVIDIA (2006) pour programmer les GPU pour des calculs généraux. 5 millions de développeurs formés = verrou technologique majeur.
HBM — High Bandwidth Memory
Mémoire ultra rapide empilée en 3D. HBM3E transfère des données 10x plus vite que la mémoire classique. Indispensable pour les grands modèles IA.
Fresque — Évolution des GPU IA (Oct. 2025 → Avr. 2026) 05
Cliquez sur chaque carte pour révéler le détail complet de l'événement.
Oct 2025
10 oct. 2025NVIDIACliquer pour détails →
NVIDIA lance la production massive des GPU Blackwell
208 Mds transistors · NVLink 5 · 25x plus efficace que H100
10 oct. 2025NVIDIA← Fermer
L'architecture Blackwell est nommée en hommage au mathématicien David Harold Blackwell. Annoncée en mars 2024 au GTC, elle succède à Hopper (H100).
Blackwell en chiffres : 208 milliards de transistors (2,5x Hopper) · Procédé TSMC 4NP · 20 petaFLOPS en FP4 · 25x plus efficace énergétiquement · Prix ~30 000–40 000 $. Toute la production 2025 vendue avant d'arriver sur le marché.
NVLink 5e génération : Relie jusqu'à 576 GPU pour fonctionner comme un seul super-GPU. Débit : 1,8 To/s par GPU — essentiel pour les modèles à 1 000 milliards de paramètres.
Adopté immédiatement par AWS, Google, Microsoft, Meta, OpenAI, Oracle.
Optimisation logicielle — PyTorch & TensorFlow pour Blackwell
+20 à 30% d'efficacité sans changer de matériel · FP4 natif
3 déc. 2025Logiciel← Fermer
PyTorch (Meta) & TensorFlow (Google) : Les deux principaux frameworks open-source pour l'IA. Ils font le lien entre le code des chercheurs et la puissance brute des GPU.
FP4 / FP8 : Formats de calcul réduits qui accélèrent les modèles IA avec une perte de précision négligeable. Blackwell est le premier GPU à supporter nativement le FP4.
CES 2026 — L'ère des "AI PC" officiellement lancée
NVIDIA · AMD · Intel · Qualcomm · IA locale sans cloud
6 jan. 2026CES 2026← Fermer
Le CES 2026 (plus grand salon tech mondial, Las Vegas) marque l'entrée de l'IA dans les PC grand public. NVIDIA présente les RTX 50 (Blackwell gaming).
AI PC : Ordinateur avec NPU intégré pour exécuter l'IA localement. Avantages : confidentialité, hors connexion, latence réduite.
NPU (Neural Processing Unit) : Puce spécialisée IA pour tâches légères. Présent dans Intel Core Ultra, AMD Ryzen AI, Snapdragon X.
Explosion des investissements dans les data centers IA
Microsoft · Google · Amazon · Meta · Stargate 500 Mds$
5 fév. 2026Marché← Fermer
Data center IA : Centre regroupant des milliers de GPU interconnectés. Le projet Stargate (OpenAI/Microsoft) prévoit 500 Mds$ d'investissement aux USA.
Impact direct : pénurie mondiale de GPU, hausse des prix, délais 6–12 mois. NVIDIA : 68,1 Mds$ de CA au seul Q4 2025, dont 91% Data Center.
L'IA provoque une pénurie de GPU gaming — les joueurs paient les frais
GPU gaming = marché secondaire · RTX 50 Super repoussée · Prix en hausse
Mars 2026Marché← Fermer
L'explosion des besoins IA force NVIDIA et AMD à réallouer leur production vers les accélérateurs IA, bien plus lucratifs (marge 69%) que les GPU gaming (marge 40%).
Conséquences pour les joueurs : RTX 50 Super repoussée sans date. Pénurie de mémoire GDDR/HBM. 2026 pourrait être la première année sans nouvelle génération gaming NVIDIA depuis 30 ans.
Pénurie gamingRTX 50 Super reportéeMarge 69% IA2026 sans new gen
DeepSeek abandonne NVIDIA pour Huawei — début du découplage ?
Chine vs USA · Huawei Ascend · Restrictions export GPU · -17% bourse
6 avr. 2026Géopolitique← Fermer
Pourquoi la Chine ne peut plus acheter NVIDIA ? Depuis 2022, les USA interdisent l'export des GPU IA puissants (H100, H200, Blackwell) vers la Chine pour empêcher le développement de supercalculateurs militaires.
DeepSeek : Startup chinoise avec un modèle IA très performant. L'annonce de son passage à Huawei a fait chuter NVIDIA en bourse de 17% en une journée.
Meta investit 35,2 Mds$ dans CoreWeave + 6GW de puces AMD
Fin de l'ère du fournisseur unique · Meta 135 Mds$ IA en 2026
9 avr. 2026Marché← Fermer
CoreWeave : Société de location de GPU en cloud soutenue par NVIDIA. Meta y loue de la puissance de calcul immédiatement disponible en attendant ses propres data centers.
Parallèlement, Meta signe un contrat de 6 gigawatts de puces AMD pour réduire sa dépendance à NVIDIA. Signal fort : même les plus gros clients cherchent des alternatives.
Architecture Rubin (future génération) : Successeur de Blackwell avec 3 puces par GPU et interconnexions optiques. Initialement prévu à 29% des livraisons 2026, révisé à 22% à cause de défis techniques et tensions géopolitiques.
Les modèles GB300 et B300 (Blackwell Ultra) sont les fers de lance de NVIDIA pour 2026. Blackwell dominera jusqu'en 2027 minimum.
NVIDIA veut envoyer l'IA dans l'espace — "Space-1 Vera Rubin"
Data centers orbitaux · Traitement IA en orbite · Satellites intelligents
Avr. 2026NVIDIA← Fermer
NVIDIA annonce vouloir déployer ses GPU dans l'espace via un satellite "Space-1 Vera Rubin Module", conçu pour atteindre les performances d'un data center traditionnel en orbite.
Pourquoi l'IA dans l'espace ? Les satellites actuels envoient les données sur Terre pour analyse — latence élevée, bande passante limitée. Avec des GPU en orbite : détection instantanée d'incendies, suivi météo, observation en temps réel.
Limites : Sam Altman (OpenAI) qualifie le projet de "ridicule" — coûts de lancement énormes, maintenance impossible en orbite. NVIDIA vise avant tout à s'imposer là où aucun concurrent n'est encore allé.
Space-1 Vera RubinData center orbitalSatellites IA
Blackwell Ultra (GB300) confirmé — vers l'architecture Rubin 2027
288 Go HBM3E · 1400W · 2x performances attention LLM · Token/s nouvelle unité
Avr. 2026NVIDIAActuel← Fermer
NVIDIA confirme Blackwell Ultra : 288 Go HBM3E (+50%), consommation 1400W, performances 2x supérieures sur les couches d'attention des LLM.
Token — nouvelle unité de valeur IA : Jensen Huang au GTC 2026 propose de mesurer la valeur d'un GPU en tokens/seconde plutôt qu'en FLOPS. Un token = unité de base du texte traité par un LLM.
Architecture Rubin (2027) : 3 puces par GPU + interconnexions optiques. Promet ~5x d'amélioration d'inférence vs Blackwell.