Perché l'IA Cinese È Diventata Così Potente (DeepSeek, Seedance 2.0)
Il 10 marzo 2016, in una sala silenziosa di Seoul, due avversari si sono trovati faccia a faccia. Da un lato, Lee Sedol, uno dei più grandi giocatori di Go della storia, eroe nazionale in Corea. Dall'altro, AlphaGo, un programma informatico sviluppato da DeepMind, acquisita da Google.
Quella partita ha cambiato tutto.
Dopo circa quattro ore di gioco, AlphaGo ha sconfitto Lee Sedol. Ma è stata la seconda partita, giocata nello stesso giorno, a scioccare il mondo intero. A un certo punto, AlphaGo ha piazzato una pietra sul tabellone in un modo che nessun giocatore umano avrebbe mai considerato. Per diversi minuti, i commentatori sono rimasti in silenzio, cercando di capire se la macchina avesse commesso un errore. Lee Sedol stesso, così stupito, ha lasciato la sala per quindici minuti.
Quella mossa, passata alla storia come "mossa 37", non era un errore. Ha rivelato una strategia completamente nuova che nessun essere umano aveva mai immaginato in più di 2000 anni di gioco del Go.
Per molti scienziati e politici cinesi, quelle partite hanno funzionato da sveglia importante, accelerando drasticamente la spinta della Cina verso l'intelligenza artificiale. L'anno successivo, il governo cinese ha pubblicato una strategia nazionale che dichiarava l'IA priorità assoluta, con l'obiettivo esplicito di diventare leader mondiale entro il 2030.
Meno di un decennio dopo, vediamo strumenti di IA cinesi come DeepSeek e Seedance 2.0 diventare virali in tutto il mondo. Ma come ci sono riusciti?
Il livello hardware
L'IA è una pila di tecnologie, con strati che poggiano l'uno sull'altro. Sul fondo c'è l'hardware, i chip che fanno funzionare tutto.
Il chip più importante per l'IA oggi è la GPU, l'unità di elaborazione grafica. La struttura che rende le GPU così brave a rendere le immagini le rende anche incredibilmente potenti per eseguire i calcoli matematici necessari all'IA.
Una singola GPU avanzata costa tra i 30.000 e i 40.000 dollari. Per addestrare un modello massiccio come ChatGPT, servono decine di migliaia di esse, collegate insieme in centri dati da miliardi di dollari.
E qui entra in gioco la geopolitica. Chi controlla la produzione di queste GPU?
Ad marzo 2026, Nvidia è l'azienda più preziosa al mondo, valutata circa 4,5 trilioni di dollari. Progetta l'architettura e controlla l'offerta globale di GPU di fascia alta. Non le fabbrica fisicamente. Consegna i progetti a una sola azienda a Taiwan, TSMC.
TSMC è l'unica fabbrica al mondo capace di produrre questi chip iper-avanzati in modo affidabile. Oggi controlla quasi il 70% del mercato globale e oltre il 90% del mercato per i chip più avanzati usati nell'IA.
E qui entra in gioco la legge americana: qualsiasi azienda straniera che usa tecnologia statunitense per costruire un prodotto è severamente proibita dal vendere chip IA avanzati alla Cina. Se TSMC violasse quella regola, gli Stati Uniti taglierebbero immediatamente l'accesso agli strumenti di cui ha bisogno per sopravvivere.
La Cina potrebbe semplicemente costruire la propria versione di TSMC da zero? La produzione di questi chip è forse il processo fisico più complesso nella storia umana. Richiede decenni di ingegneria accumulata, attrezzature altamente specializzate costruite nei Paesi Bassi e sostanze chimiche ultra-pure dal Giappone. Anche giganti tecnologici come Samsung hanno speso miliardi tentando di raggiungere TSMC, ma ancora faticano a far funzionare i loro chip IA avanzati in modo affidabile.
La maggior parte degli esperti occidentali ha dato per spacciate le ambizioni IA della Cina. Nessuno pensava che sarebbero riusciti a raggiungere gli Stati Uniti.
Ma quello che l'Ovest ha sottovalutato è quanto la Cina potesse innovare sul fronte del software.
Il livello del modello
Quando costruisci un modello IA, hai bisogno di migliaia di GPU di altissimo livello, che gli Stati Uniti avevano proibito alla Cina di comprare.
Le aziende cinesi come DeepSeek hanno dovuto prendere il progetto del Transformer e modificarlo fondamentalmente per renderlo più economico ed efficiente.
Hanno ottenuto due risultati principali.
Primo, hanno spinto un'architettura chiamata Mixture of Experts, o MoE, all'estremo. Invece di dividere il modello in dozzine di cluster esperti, lo hanno affettato in 256 esperti iper-specializzati. Quando chiedi a DeepSeek di risolvere un problema di programmazione, un router ultra-efficiente attiva istantaneamente solo otto di quegli esperti, lasciando il resto del cervello completamente addormentato.
Hanno anche abbinato questa frammentazione estrema con una nuova tecnica chiamata Multi-head Latent Attention, o MLA. In pratica, comprime la memoria a breve termine dell'IA di oltre il 90%. Questo permette al modello di tenere traccia perfettamente di ciò a cui sta pensando mentre usa molta meno memoria.
Secondo, hanno ottimizzato profondamente il modo in cui l'hardware comunica. Poiché dovevano usare GPU Nvidia meno potenti, non potevano dipendere dal software standard di Nvidia. Hanno costruito uno strato assembly personalizzato, costringendo quei chip più vecchi a comunicare ed eseguire calcoli in modo molto più efficiente.
Il risultato? DeepSeek è riuscito a costruire un modello IA di livello mondiale per circa 6 milioni di dollari, mentre OpenAI spendeva centinaia di milioni per addestrare i modelli GPT.
Ma la caratteristica killer del livello del modello di DeepSeek non era solo l'architettura. Era la distribuzione. DeepSeek ha reso il modello open source. Ricercatori, startup e sviluppatori in tutto il mondo potevano ispezionarlo, eseguirlo, perfezionarlo e costruirci sopra.
Questo è l'esatto opposto dell'approccio chiuso usato da aziende come OpenAI.
Il livello dei dati
Un modello IA, non importa quanto elegante il suo design, inizia come un cervello vuoto. Per diventare intelligente, deve essere addestrato su enormi quantità di conoscenza e comportamento umano.
Per anni, l'assunzione in Occidente era che il modello più intelligente sarebbe arrivato dalle aziende che potevano comprare più competenza umana. Hanno assunto enormi team di annotatori, ricercatori e specialisti per creare dati di addestramento premium.
DeepSeek ha spinto molto di più su un approccio diverso, chiamato reinforcement learning. Invece di mostrare costantemente al modello il processo di ragionamento corretto scritto da un umano, lasci che il modello generi molte risposte possibili. Un sistema di punteggio controlla il risultato. Se la risposta è corretta, chiara o utile, il modello viene ricompensato. Se è sbagliata, imprecisa o inconsistente, viene penalizzato.
Il modello non sta imparando come uno studente memorizza una risposta. Sta imparando come una persona che risolve problemi pratici ripetute volte, scoprendo lentamente quali strategie portano al successo.
Le aziende IA americane usano il reinforcement learning, ma dipendono da un approccio ibrido. Spendono centinaia di milioni di dollari su competenza umana per garantire che l'IA sia altamente controllabile, sicura e pronta per il mercato.
DeepSeek, d'altra parte, non aveva miliardi da spendere su tutor umani. Così, per pura necessità finanziaria, si è basato sul reinforcement learning puro molto prima nel processo di addestramento.
C'è però un problema. Quando DeepSeek ha testato questo approccio, l'IA è diventata brillante in logica, matematica e programmazione, ma comunicativa in modo terribile con gli umani. Perché l'IA veniva ricompensata solo per ottenere la risposta matematica corretta, ha smesso di curarsi di come suonava. Il modello ha iniziato a soffrire di "language mixing", pensare in un ibrido illeggibile di inglese e cinese.
Per rendere il modello utile per il pubblico generale, DeepSeek è dovuto tornare indietro e usare una piccola quantità di quei dati etichettati da umani costosi per insegnare all'IA come formattare le sue risposte chiaramente.
Il livello dell'applicazione
E arriviamo al punto davvero interessante. In Cina, l'economia digitale è dominata dai cosiddetti super app come WeChat e piattaforme video come Douyin, l'equivalente cinese di TikTok.
Queste aziende non ospitano solo video. Gestiscono le pipeline di dati video più efficienti mai costruite. Ogni singolo giorno, centinaia di milioni di cittadini cinesi usano queste app per caricare video ultra-definizione che coprono ogni aspetto immaginabile della vita umana. Dalla cucina e danza alle riparazioni meccaniche complesse, filmati con droni e vlog quotidiani.
E indovina chi possiede Seedance 2.0? ByteDance.
Perché ByteDance possiede letteralmente la piattaforma, possiede i file video nativi, non compressati direttamente sui propri server. Quei video sono perfettamente categorizzati e abbinati con metriche esatte di coinvolgimento degli utenti.
Quando la loro IA si allena su questi dati, non sta solo guardando un video di una persona che cammina. Ha accesso ai metadata. Conosce l'angolazione esatta della fotocamera, le condizioni di illuminazione e il millisecondo esatto in cui un umano ha perso interesse e ha swipato via.
Questa è una base di dati perfettamente etichettata, in crescita infinita, che esiste interamente dietro il muro internet cinese.
Ed è precisamente per questo che Seedance può superare altri generatori video IA come Sora di OpenAI. Mentre Sora ancora fatica con la consistenza fisica, la sincronizzazione audio e le allucinazioni visive, largamente perché OpenAI ha raggiunto i limiti dei dati multimodali che poteva ottenere legalmente e pulitamente.
Il futuro
Se DeepSeek ha dimostrato che la Cina può competere nel ragionamento, aziende come ByteDance hanno dimostrato che la Cina possiede anche uno dei serbatoi più profondi di dati consumer multimodali al mondo.
Il rovescio della medaglia è che questi strumenti IA cinesi potrebbero eventualmente avere difficoltà ad accedere ai dati multimediali fuori dalla Cina. Se vogliono che i loro modelli comprendano perfettamente la cultura occidentale, la fisica occidentale o i paesaggi urbani occidentali, non possono contare solo su Douyin. Alla fine incontreranno lo stesso problema del muro dei dati delle aziende americane.
Per me, questo significa che la corsa all'IA è tutt'altro che finita. Si sta solo spostando verso un nuovo campo di battaglia.
Quando si tratta del futuro, nello specifico l'ascesa degli agenti IA e dei robot fisici, la mia intuizione è che ci sia ancora una quantità massiccia di dati reali in attesa di essere scoperta e addestrata. Potrebbe non provenire da internet. Potrebbe venire dal parlare con le persone.