Nvidia ha consolidato nel 2025 la propria posizione di unico fornitore in grado di soddisfare la domanda di GPU per l'AI training e inference su larga scala. La capitalizzazione di mercato ha più volte superato i 3.000 miliardi di dollari.
L'architettura Blackwell, presentata nel 2024, è entrata a regime nei data center degli hyperscaler. La roadmap Rubin annunciata da Jensen Huang punta a mantenere il ritmo annuale di nuove generazioni.
La concorrenza inizia però a strutturarsi: AMD con la serie MI300, Broadcom con i chip custom per Google e Meta, e startup come Cerebras e Groq sull'inference low-latency. Per i clienti enterprise il problema non è la performance ma la disponibilità.