L’ecosistema dell’intelligenza artificiale in Cina: un’analisi approfondita con Z.AI GLM
1. Introduzione
Negli ultimi anni la Cina è emersa come uno dei principali attori nel campo delle grandi reti neurali (LLM). Il podcast di cui si è trattato offre una panoramica interna, grazie alla testimonianza di Lee Zashwan, responsabile di prodotto presso Z.AI, una delle startup più innovative del settore. L’intervista mette in luce le differenze culturali, tecniche e di mercato tra l’Europa/USA e la Cina, oltre a fornire dati concreti sui modelli sviluppati in patria.
2. Z.AI e la serie GLM
Modello | Parametri | Note |
|---|---|---|
GLM‑4.5 | 355 billion | Versione “full” con capacità di ragionamento, codifica e agenticità in un unico modello. |
GLM‑4.5 Air | 100–106 billion | Variante più leggera, pensata per applicazioni con risorse limitate. |
GLM‑1.75 T (2021) | 1.75 trillion | Primo grande modello di Z.AI, sviluppato con risorse limitate e senza “compressione” dei parametri. |
Z.AI ha iniziato la serie GLM nel 2021, quando il modello più grande era già di 1,75 trilioni di parametri. Da allora l’azienda ha adottato una strategia di open‑source: i modelli più recenti sono disponibili gratuitamente su piattaforme come Chat.z.ai e possono essere eseguiti anche su hardware consumer.
3. Metodologia di addestramento
Z.AI differisce dagli approcci tradizionali in due punti chiave:
- Mid‑training
- Dopo la fase di pre‑training, viene inserito un “mid‑training” che utilizza dati di alta qualità: repository di codice, soluzioni a concorsi matematici e traiettorie agentiche (funzioni di chiamata, ragionamento sequenziale).
- Questo step permette al modello di acquisire capacità di ragionamento e di interazione con strumenti esterni prima della fase di fine‑tuning.
- Hybrid Reasoning
- Il modello è “profondo” (più strati rispetto a K2 o DeepSeek) ma non introduce architetture radicalmente nuove; la differenza risiede soprattutto nella qualità dei dati e nell’allenamento intermedio.
4. Confronto con altri modelli cinesi e internazionali
Azienda | Modello | Parametri | Note |
|---|---|---|---|
DeepSeek | V3.1 | ~1.6 B (in evoluzione) | Leader open‑source, ha ricevuto un notevole supporto hardware dal governo. |
Kimi (Alibaba) | K2 | 1 trillion | Modello proprietario, con forte focus su inferenza e servizi cloud. |
BiteDance | Proprietario | Non divulgato | Modello di punta con capacità visive e di ragionamento. |
OpenAI / Meta | GPT‑4 / LLaMA | 175 B (GPT‑4) | Modelli proprietari, con accesso a GPU Nvidia di fascia alta. |
Z.AI afferma che GLM‑4.5 è “competitivo” con K2 e DeepSeek su benchmark principali, ma punta a offrire un’unica soluzione “all‑in‑one” (ragionamento, codifica, agenticità) invece di modelli specializzati.
5. Supporto governativo e infrastruttura
- Data Center: La Cina sta costruendo centri dati in rapida espansione, con capacità energetica in crescita annuale. Tuttavia, la maggior parte delle startup (inclusa Z.AI) utilizza servizi cloud piuttosto che costruire i propri data center.
- Hardware:
- Nvidia: Le restrizioni di esportazione hanno limitato l’accesso a GPU di fascia alta. Alcune aziende riescono a “smuggler” modelli, ma la disponibilità rimane incerta.
- Huawei Ascend: Offre prestazioni inferenza pari all’80 % di Nvidia, ma non è ancora maturo per il training su larga scala.
- Finanziamenti: Le grandi aziende come Alibaba e BiteDance possono allocare fondi significativi per l’IA, mentre le startup devono dimostrare redditività e spesso dipendono da partnership con fornitori di cloud.
6. Cultura del lavoro e dinamiche del settore
- Orari intensivi: Non esiste una politica ufficiale “996” (9 am‑9 pm, 6 giorni a settimana), ma molti ricercatori lavorano 20 ore al giorno per rispettare scadenze e collaborazioni internazionali.
- Networking: In Cina le interazioni tra team di diverse aziende sono più formali; i “party” e hackathon internazionali sono meno frequenti rispetto a San Francisco, dove la cultura del lavoro è più informale e collaborativa.
- Condivisione delle conoscenze: Gli sviluppatori cinesi leggono e comprendono rapidamente le ultime pubblicazioni scientifiche grazie alla forte base di talenti e all’attenzione verso l’educazione tecnica.
7. Prospettive future
- Open‑source vs Proprietary: Z.AI e DeepSeek puntano a rendere i modelli accessibili a tutti, mentre Alibaba e BiteDance mantengono un modello di business basato su servizi cloud.
- AGI e agenticità: La ricerca si sta spostando verso sistemi multi‑agente che possono interagire con il mondo reale (es. robotica).
- Collaborazione globale: Nonostante le differenze culturali, c’è un crescente scambio di idee tra ricercatori cinesi e occidentali, soprattutto tramite pubblicazioni e conferenze.
8. Conclusioni
L’intervista a Lee Zashwan offre una visione chiara delle dinamiche che stanno plasmando l’IA in Cina: un mix di innovazione tecnica, strategia open‑source, sfide hardware e un ecosistema governativo che, seppur meno diretto rispetto agli Stati Uniti, fornisce comunque risorse cruciali. Mentre le startup cinesi come Z.AI continuano a spingere i confini dei modelli linguistici, il settore globale osserva con interesse l’evoluzione di questa competizione, che promette di arricchire la ricerca e le applicazioni dell’intelligenza artificiale in tutto il mondo.