Nvidia ha appena ammesso che le GPU non bastano più.
Il colosso da 4 trilioni di dollari di capitalizzazione, quello che detiene il 92% del mercato GPU e ha costruito un impero sull'accelerazione parallela, si presenta al GTC 2026 con un messaggio che ribalta tutto: il futuro dell'AI passa dalle CPU. E per blindare il messaggio, ha staccato un assegno da 20 miliardi di dollari per comprare Groq, l'azienda che aveva dimostrato come fare inferenza senza GPU. Se questo non è un cambio di paradigma, ditemi voi cos'è.

Il re delle GPU ammette il problema
La frase che nessuno si aspettava l'ha detta Dion Harris, head of AI infrastructure di Nvidia:
Le CPU stanno diventando il collo di bottiglia nella crescita dei workflow AI e agentic.
Rileggete. Non l'ha detto un concorrente, non l'ha scritto un analista di Wall Street con il dente avvelenato. L'ha detto uno di Nvidia. E il motivo è semplice: con l'esplosione degli agenti AI — quei sistemi che orchestrano decine di modelli, pianificano, ragionano, eseguono — il lavoro di coordinamento ricade sulle CPU. Le GPU macinano i tensor, ma chi decide cosa macinare, quando farlo e come assemblare i risultati? La CPU. Quella stessa CPU che per anni è stata trattata come un accessorio.
Ed ecco Vera.
Vera Olympus: 88 core Arm per non far aspettare le GPU
La risposta di Nvidia si chiama Vera, e monta una CPU custom Olympus: 88 core Arm v9.2, 176 thread con Spatial Multithreading, 162 MB di cache L3 e fino a 1.5 TB di LPDDR5X. Non è un processore progettato per i benchmark sintetici — è una CPU che dà la priorità alle prestazioni single-thread, perché in un workflow agentic ogni microsecondo di latenza sulla CPU è un microsecondo in cui una GPU da decine di migliaia di euro sta lì ferma ad aspettare. Come dire: hanno costruito il cameriere più veloce del mondo per servire una cucina che sforna piatti a velocità assurda.




