Jensen Huang: Il Passato, Il Presente e Il Futuro di NVIDIA nell'Era dell'IA

Jensen Huang: Il Passato, Il Presente e Il Futuro di NVIDIA nell'Era dell'IA

Jensen Huang, CEO di NVIDIA, è stato ospite del podcast di Lex Fridman per un'intervista approfondita che tocca i temi più caldi del mondo della tecnologia e dell'intelligenza artificiale. Con un'azienda valutata quasi 4 trilioni di dollari, Huang rappresenta uno degli uomini più potenti e influenti nel panorama tecnologico globale. L'intervista offre uno sguardo raro sulla mente di un leader che ha saputo anticipare curve tecnologiche fondamentali per due decenni.

La Rivoluzione del Co-design Estremo

L'intervista inizia con un'esplorazione profonda di quello che Huang chiama "co-design estremo", un approccio che ha trasformato NVIDIA da un'azienda focalizzata sulla progettazione di chip a una compagnia che costruisce interi data center.
«Il problema non sta più dentro un singolo computer accelerato da una GPU», spiega Huang. «Il problema che cerchi di risolvere è andare più veloce del numero di computer che aggiungi.»

Il ragionamento di Huang rivela una comprensione profonda della Legge di Amdahl: quando si aggiungono 10.000 computer e si desidera un milione di volte di velocità in più, non basta semplicemente scalare. Bisogna distribuire il problema, sharding il pipeline, i dati, il modello. E quando si distribuisce il carico di lavoro in questo modo, "tutto diventa un ostacolo."

Il CEO descrive un team di 60 persone che lavorano direttamente con lui, quasi tutte con background ingegneristico. «Non faccio one-on-one perché è impossibile», racconta. «Presentiamo un problema e tutti lo attacchiamo insieme. Questo è il co-design estremo.»

La Storia di CUDA: Una Scommessa Visionaria

Uno dei momenti più affascinanti dell'intervista riguarda la genesi di CUDA. Huang ricorda quando, circa quindici anni fa, decisero di inserire CUDA sulle schede GeForce. «Era una decisione strategica che si avvicinava a una minaccia esistenziale», ammette.

Il ragionamento era chiaro: una piattaforma di computing vive dei suoi sviluppatori, e gli sviluppatori scelgono piattaforme con una grande base installata. Il problema? CUDA aumentava il costo delle GPU del 50%, mangiando tutti i profitti lordi della compagnia. «La nostra capitalizzazione di mercato scese a un miliardo e mezzo di dollari», ricorda Huang. «Ma abbiamo continuato a portare CUDA su GeForce.»

La visione era semplice: trasformare ogni PC in un potenziale supercomputer per ricercatori e scienziati. «NVIDIA è la casa costruita da GeForce», afferma Huang. «I ricercatori scoprirono CUDA su GeForce perché molti di loro erano gamer e costruivano i propri PC.»

Questa scommessa si rivelò fondamentale per la rivoluzione del deep learning. «Quando dichiarai 'andiamo all-in sul deep learning', avevo già costruito le basi per anni,» spiega Huang. «Il giorno dell'annuncio, tutti dicevano 'Jensen, che ci hai messo tanto?'»

Le Quattro Leggi di Scaling

Huang delinea quattro leggi di scaling fondamentali per l'IA:

  1. Pre-training: La legge classica che ha guidato l'industria negli ultimi anni. L'industria panica quando Ilya Sutskever disse che i dati erano finiti. «Ovviamente non è vero», chiarisce Huang. «La maggior parte dei dati che usiamo è già sintetica. Non viene dalla natura.»
  2. Post-training: Qui i modelli migliorano attraverso raffinazione e sintesi di dati. Questo continua a scalare.
  3. Test-time scaling (inference): «La gente mi diceva che l'inference sarebbe stato facile», ricorda Huang. «Ma l'inference è pensare, e pensare è molto più difficile che leggere. Pre-training è solo generalizzazione e ricerca di pattern. Inference è ragionamento, pianificazione, ricerca.»
  4. Agentic scaling: Gli agenti IA creano team, spawnano sotto-agenti, e generano nuovi dati che ritornano al pre-training. «Il prossimo scaling law è la legge dell'agente», spiega Huang. «È come moltiplicare l'IA.»

Supply Chain e Bottleneck

L'intervista tocca anche i timori sulla catena di approvvigionamento: ASML con le macchine EUV, TSMC con il packaging avanzato CoWoS, SK Hynix con la memoria ad alta larghezza di banda.
«Non mi preoccupo», risponde Huang. «Ho informato tutti i CEO di cosa avevamo bisogno. Hanno capito e mi hanno detto cosa faranno. Li credo.»

Huang racconta di aver convinto i CEO dell'industria DRAM tre anni fa a investire nell'HBM, nonostante all'inizio sembrasse ridicolo. «Ora hanno avuto i migliori anni della loro storia», afferma.

Il Problema dell'Energia

Sul tema dell'energia, Huang è pragmatico. «La rete elettrica è progettata per il caso peggiore con margine», spiega. «Il 99% del tempo siamo lontani dal caso peggio. C'è energia in eccesso che rimane inutilizzata.»
La soluzione richiede tre cose: clienti finali che capiscano cosa stanno chiedendo, data center che degradino elegantemente, e utility che offrano segmenti di potenza più flessibili. «C'è troppo spreco nella rete», conclude. «Dovremmo sfruttarlo.»

Il Caso xAI e l'Approccio di Elon Musk

Huang loda pubblicamente l'impresa di Elon Musk a Memphis: costruire Colossus, un supercomputer da 200.000 GPU, in soli quattro mesi. «Elon è un eccellente pensatore sistemico», afferma.

La chiave, secondo Huang, è la presenza fisica: «Lui va sul posto personalmente. Se c'è un problema, dice 'fammi vedere'. Questa urgenza personale viene trasmessa a ogni persona.»

Conclusione

L'intervista rivela un CEO che non si limita a guidare un'azienda, ma plasma attivamente il futuro della tecnologia. Huang non costruisce solo computer: costruisce ecosistemi, convince partner, e manifesta una visione che diventa realtà. La domanda che emerge è: cosa costruirà NVIDIA nei prossimi dieci anni? Guardando al passato, la risposta potrebbe essere più sorprendente di quanto possiamo immaginare.