3 min read

L’ecosistema dell’intelligenza artificiale in Cina: un’analisi approfondita con Z.AI GLM

1. Introduzione

Negli ultimi anni la Cina è emersa come uno dei principali attori nel campo delle grandi reti neurali (LLM). Il podcast di cui si è trattato offre una panoramica interna, grazie alla testimonianza di Lee Zashwan, responsabile di prodotto presso Z.AI, una delle startup più innovative del settore. L’intervista mette in luce le differenze culturali, tecniche e di mercato tra l’Europa/USA e la Cina, oltre a fornire dati concreti sui modelli sviluppati in patria.


2. Z.AI e la serie GLM

Modello
Parametri
Note
GLM‑4.5
355 billion
Versione “full” con capacità di ragionamento, codifica e agenticità in un unico modello.
GLM‑4.5 Air
100–106 billion
Variante più leggera, pensata per applicazioni con risorse limitate.
GLM‑1.75 T (2021)
1.75 trillion
Primo grande modello di Z.AI, sviluppato con risorse limitate e senza “compressione” dei parametri.

Z.AI ha iniziato la serie GLM nel 2021, quando il modello più grande era già di 1,75 trilioni di parametri. Da allora l’azienda ha adottato una strategia di open‑source: i modelli più recenti sono disponibili gratuitamente su piattaforme come Chat.z.ai e possono essere eseguiti anche su hardware consumer.


3. Metodologia di addestramento

Z.AI differisce dagli approcci tradizionali in due punti chiave:

  1. Mid‑training
    • Dopo la fase di pre‑training, viene inserito un “mid‑training” che utilizza dati di alta qualità: repository di codice, soluzioni a concorsi matematici e traiettorie agentiche (funzioni di chiamata, ragionamento sequenziale).
    • Questo step permette al modello di acquisire capacità di ragionamento e di interazione con strumenti esterni prima della fase di fine‑tuning.
  2. Hybrid Reasoning
    • Il modello è “profondo” (più strati rispetto a K2 o DeepSeek) ma non introduce architetture radicalmente nuove; la differenza risiede soprattutto nella qualità dei dati e nell’allenamento intermedio.

4. Confronto con altri modelli cinesi e internazionali

Azienda
Modello
Parametri
Note
DeepSeek
V3.1
~1.6 B (in evoluzione)
Leader open‑source, ha ricevuto un notevole supporto hardware dal governo.
Kimi (Alibaba)
K2
1 trillion
Modello proprietario, con forte focus su inferenza e servizi cloud.
BiteDance
Proprietario
Non divulgato
Modello di punta con capacità visive e di ragionamento.
OpenAI / Meta
GPT‑4 / LLaMA
175 B (GPT‑4)
Modelli proprietari, con accesso a GPU Nvidia di fascia alta.

Z.AI afferma che GLM‑4.5 è “competitivo” con K2 e DeepSeek su benchmark principali, ma punta a offrire un’unica soluzione “all‑in‑one” (ragionamento, codifica, agenticità) invece di modelli specializzati.


5. Supporto governativo e infrastruttura

  • Data Center: La Cina sta costruendo centri dati in rapida espansione, con capacità energetica in crescita annuale. Tuttavia, la maggior parte delle startup (inclusa Z.AI) utilizza servizi cloud piuttosto che costruire i propri data center.
  • Hardware:
    • Nvidia: Le restrizioni di esportazione hanno limitato l’accesso a GPU di fascia alta. Alcune aziende riescono a “smuggler” modelli, ma la disponibilità rimane incerta.
    • Huawei Ascend: Offre prestazioni inferenza pari all’80 % di Nvidia, ma non è ancora maturo per il training su larga scala.
  • Finanziamenti: Le grandi aziende come Alibaba e BiteDance possono allocare fondi significativi per l’IA, mentre le startup devono dimostrare redditività e spesso dipendono da partnership con fornitori di cloud.

6. Cultura del lavoro e dinamiche del settore

  • Orari intensivi: Non esiste una politica ufficiale “996” (9 am‑9 pm, 6 giorni a settimana), ma molti ricercatori lavorano 20 ore al giorno per rispettare scadenze e collaborazioni internazionali.
  • Networking: In Cina le interazioni tra team di diverse aziende sono più formali; i “party” e hackathon internazionali sono meno frequenti rispetto a San Francisco, dove la cultura del lavoro è più informale e collaborativa.
  • Condivisione delle conoscenze: Gli sviluppatori cinesi leggono e comprendono rapidamente le ultime pubblicazioni scientifiche grazie alla forte base di talenti e all’attenzione verso l’educazione tecnica.

7. Prospettive future

  • Open‑source vs Proprietary: Z.AI e DeepSeek puntano a rendere i modelli accessibili a tutti, mentre Alibaba e BiteDance mantengono un modello di business basato su servizi cloud.
  • AGI e agenticità: La ricerca si sta spostando verso sistemi multi‑agente che possono interagire con il mondo reale (es. robotica).
  • Collaborazione globale: Nonostante le differenze culturali, c’è un crescente scambio di idee tra ricercatori cinesi e occidentali, soprattutto tramite pubblicazioni e conferenze.

8. Conclusioni

L’intervista a Lee Zashwan offre una visione chiara delle dinamiche che stanno plasmando l’IA in Cina: un mix di innovazione tecnica, strategia open‑source, sfide hardware e un ecosistema governativo che, seppur meno diretto rispetto agli Stati Uniti, fornisce comunque risorse cruciali. Mentre le startup cinesi come Z.AI continuano a spingere i confini dei modelli linguistici, il settore globale osserva con interesse l’evoluzione di questa competizione, che promette di arricchire la ricerca e le applicazioni dell’intelligenza artificiale in tutto il mondo.