Quello di Nvidia Si prevede che gli utili di mercoledì mostreranno un increase delle vendite dell’attuale sistema rack-scale dell’azienda. Ma tutti gli occhi sono puntati sul suo prossimo sistema di intelligenza artificiale, Vera Rubin, il cui lancio è previsto entro la nice dell’anno.
Vera Rubin, composta da 1,3 milioni di componenti, offrirà prestazioni per watt 10 volte superiori rispetto al suo predecessore, Grace Blackwell, afferma l’azienda. Si tratta di uno sviluppo significativo se si considera che il consumo di energia è uno dei problemi più critici che deve affrontare lo sviluppo dell’intelligenza artificiale.
La CNBC ha dato un primo sguardo esclusivo a Vera Rubin presso la sede di Nvidia a Santa Clara, in California.
Nvidia afferma che il nuovo sistema AI è una complessa rete di parti provenienti da tutto il mondo. I suoi chip principali includono 72 unità di elaborazione grafica Rubin, o GPU, e 36 unità di elaborazione centrale, o CPU, Vera, realizzate principalmente da Taiwan Semiconductor Manufacturing Co. Le altre parti, dagli elementi di raffreddamento a liquido ai sistemi di alimentazione e ai vassoi di elaborazione, provengono da oltre 80 fornitori in almeno 20 paesi, tra cui Cina, Vietnam, Tailandia, Messico, Israele e Stati Uniti.
Una grande sfida che l’azienda deve affrontare è l’aumento vertiginoso dei costi della memoria a causa della carenza globale di tutta la domanda guidata dall’intelligenza artificiale. Dion Harris, responsabile dell’infrastruttura AI di Nvidia, ha affermato in un’intervista che la società ha fornito ai fornitori “previsioni molto dettagliate”.
“Ci stiamo allineando per garantire che tutto ciò che spediamo venga soddisfatto dalla nostra catena di approvvigionamento”, ha affermato. “Siamo in buona forma.”
È un momento critico per Nvidia, che domina il mercato dei processori AI ma deve affrontare una concorrenza sempre più intensa Microdispositivi avanzati così come il silicio personalizzato da Broadcom E Quello di Google unità di elaborazione tensoriale nostrane. Nvidia ha in programma di produrre fino a 500 miliardi di dollari di infrastrutture AI negli Stati Uniti fino al 2029, inclusa la produzione di GPU Blackwell nei nuovi stabilimenti di TSMC in Arizona.
Grace Blackwell è entrata in produzione nel 2024 e ha cambiato le regole del gioco sulla quantità di elaborazione possibile con un unico sistema. Vera Rubin, la cui spedizione è prevista nella seconda metà del 2026, porta l’azienda advert un altro livello. Il CEO di Nvidia Jensen Huang ha annunciato a gennaio che il sistema period in piena produzione.
Il fondatore e CEO di Nvidia Jensen Huang parla della piattaforma AI Vera Rubin all’annuale Shopper Electronics Present di Las Vegas, 6 gennaio 2026.
Patrick T. Fallon | Afp | Immagini Getty
“Queste cose sono enormi. Hanno tutto il calcolo, tutta la rete, tutto il cablaggio, tutto il raffreddamento”, ha affermato Daniel Newman della società di ricerca Futurum Group. “Hanno riunito tutti questi sistemi in un unico rack costruito per garantire la massima efficienza e le massime prestazioni. E non è proprio così che storicamente venivano costruiti i server.”
La settimana scorsa, Meta ha annunciato l’intenzione di utilizzare Vera Rubin nei suoi knowledge heart entro il 2027. L’elenco di Nvidia di altri clienti Vera Rubin attesi embody OpenAI, Anthropic, AmazzoniaGoogle e Microsoft. I rack, prodotti negli Stati Uniti e altrove, incluso Taiwan e in un nuovo stabilimento Foxconn in Messico, pesano quasi 2 tonnellate e hanno circa 1.300 microchip totali, rispetto agli 864 di Grace Blackwell.
Vera Rubin è un sistema più semplice e modulare destinato a facilitare installazioni e riparazioni. Ogni superchip esce da uno dei 18 vassoi di elaborazione del rack in pochi secondi. Nel sistema Blackwell questi componenti sono saldati alla scheda.
Nvidia ha affermato che il nuovo sistema consumerà circa il doppio della potenza rispetto al suo predecessore, ma sarà molto più efficiente grazie a un rendimento in termini di prestazioni per watt pari a ten volte.
Jordan Klein, analista di Mizuho Securities, ha affermato che ciò che “conta di più” è “quanti token puoi ottenere per potenza consumata”.
“Più puoi modificarlo o spostare la curva verso l’alto, maggiore sarà il rendimento sul dollaro speso”, ha detto Klein.
Nvidia ha mostrato alla CNBC il superchip Vera Rubin, con due GPU Rubin e una CPU Vera, e un totale di 17.000 componenti, presso la sede di Nvidia a Santa Clara, in California, il 13 febbraio 2026.
Vera Rubin è anche il primo sistema di Nvidia raffreddato a liquido al 100%, che secondo Harris aiuta i knowledge heart a consumare “molta meno acqua” rispetto al tradizionale raffreddamento evaporativo.
Nvidia non condivide i prezzi di listino, ma Futurum Group stima che il prezzo aumenterà di circa il 25% da Grace Blackwell, portando il prezzo del sistema a circa $ 3,5 milioni o $ 4 milioni.
Poiché i principali clienti cercano di diversificare la loro dipendenza dal produttore di chip, molti stanno anche riempiendo i server AI con il proprio silicio interno. La CNBC ha visitato in ottobre un knowledge heart di Amazon Internet Providers pieno di “ultra-server” costituiti dai chip Trainium 2 dell’azienda. Nel frattempo, i knowledge heart di Google sono pieni di rack dei suoi TPU.
Entro la nice dell’anno, Nvidia vedrà una grande concorrenza quando la rivale AMD lancerà il suo primo sistema su scala rack chiamato Helios. Il produttore di chip si è appena assicurato un importante impegno da parte di Meta per un massimo di 6 gigawatt di capacità.
“Vedrete molta popolarità perché i clienti vogliono più capacità, ma vogliono anche una seconda fonte valida per mantenere Nvidia onesta”, ha detto Klein.
Riguardo alla concorrenza, Harris ha detto: “Un saluto affettuoso a chiunque ci proverà. Ma questa non è certamente un’impresa semplice”.
Guarda il video per uno sguardo dettagliato su Vera Rubin e su come funziona il sistema.











