Lo Stato dell'AI nel 2026: Un'analisi completa del futuro dell'intelligenza artificiale

Lo Stato dell'AI nel 2026: Un'analisi completa del futuro dell'intelligenza artificiale

Il podcast #490 di Lex Fridman con Nathan Lambert (Allen Institute for AI) e Sebastian Raschka (autore di "Build a Large Language Model From Scratch") offre una panorama senza precedenti sullo stato attuale e futuro dell'intelligenza artificiale. Questo articolo analizza i punti chiave discussi, dalla competizione geopolitica tra Cina e Stati Uniti alle prospettive verso l'AGI.


La Guerra dell'AI: Cina vs Stati Uniti

Il Momento DeepSeek

Gennaio 2025 ha segnato un punto di svolta con il rilascio di DeepSeek R1, un modello cinese open-weight che ha raggiunto prestazioni all'avanguardia con costi computazionali significativamente inferiori. Questo ha scatenato un'accelerazione senza precedenti nella competizione AI globale.

Nessun Vincitore Assoluto

Secondo Sebastian Raschka, non ci sarà un vincitore unico nel 2026: "Non credo che ci sarà un'azienda con accesso a tecnologie che altre non possono avere. I ricercatori cambiano frequentemente lavoro e laboratorio, quindi le idee circolano liberamente."

Il fattore differenziante non saranno le idee proprietarie, ma risorse economiche e vincoli hardware. La vera competizione si gioca su chi ha il budget per implementare le stesse idee su scala maggiore.

La Strategia Cinese dei Modelli Aperti

Le aziende cinesi stanno dominando il settore dei modelli open-weight. Oltre a DeepSeek, compagnie come Z.ai (GLM), MiniMax e Moonshot (Kimi K2 Thinking) stanno rilasciando modelli frontier eccezionali. Nathan Lambert osserva: "DeepSeek ha perso la corona come principale produttore di modelli open source in Cina, ma questo è positivo: ha creato un movimento."

Queste aziende adottano licenze più permissive rispetto ai modelli americani, eliminando restrizioni sui numeri di utenti e obblighi di reporting finanziario che caratterizzano modelli come Llama di Meta.

Perché la Cina Rilascia Modelli Aperti?

  1. Accesso al mercato globale: Molte aziende americane non pagheranno mai API cinesi per preoccupazioni di sicurezza, ma utilizzeranno modelli open-weight ospitati localmente
  2. Influenza tecnologica: Partecipare al mercato in espansione delle spese AI negli USA
  3. Supporto governativo: Il governo cinese vede valore nell'influenza internazionale generata dalla diffusione della tecnologia

La Battaglia dei Chatbot: Chi Sta Vincendo?

Claude Opus 4.5: L'Effetto Hype

Anthropic ha puntato pesantemente sul coding, e la strategia sta funzionando. Secondo Nathan Lambert: "L'hype per Claude Opus 4.5 è stato assolutamente incredibile, quasi un meme." Il modello è diventato il preferito della comunità tech su X/Twitter, con un successo "organico" guidato dagli sviluppatori stessi.

Gemini 3: Il Potenziale Non Esploso

Nonostante un lancio con grande impatto marketing, Gemini 3 ha perso slitta di popolarità. Google possiede vantaggi strutturali significativi (TPU proprietari, integrazione verticale), ma Nathan nota: "La differenziazione tra i modelli è sempre più bassa."

ChatGPT: L'Incumbent

OpenAI mantiene la base utenti più ampia grazie al riconoscimento del brand e alla "memoria muscolare". Sebastian Raschka sottolinea: "ChatGPT è stato il primo, le persone ci si sono abituate. È un effetto volano dove lo raccomandano ad altri utenti."

Grok 4 Heavy: Il Re del Debugging

Lex Fridman trova Grok 4 Heavy superiore per il "debugging hardcore che gli altri non riescono a risolvere". Nathan lo utilizza per informazioni in tempo reale e per recuperare contenuti specifici da AI Twitter.

La Tendenza Futura

Nathan Lambert prevede che Gemini continuerà a guadagnare terreno su ChatGPT grazie alla scala di Google e alla capacità di separare ricerca e prodotto, mentre Anthropic manterrà il successo nel settore software/enterprise.


Il Miglior AI per la Programmazione

Claude Code: L'Esperienza Superiore

Claude Code sta ridefinendo il programming experience. È descritto come più "agentico" e "coinvolgente" rispetto alle alternative. Nathan Lambert: "Claude Code è straordinariamente migliore in quel dominio. È notevole."

L'approccio consente di programmare "in inglese", pensando a livello di design macroscopico piuttosto che micromanaging del codice.

Cursor vs VS Code + Plugin

  • Lex Fridman: Usa metà Cursor e metà Claude Code, trovandoli esperienze fondamentalmente diverse e complementari
  • Sebastian Raschka: Preferisce Codeium per VS Code come "sweet spot" tra assistenza e controllo: "Mi aiuta, ma non prende il controllo completamente"

Il Futuro del Coding

Nathan Lambert prevede una trasformazione radicale: "L'ingegneria del software si sposterà verso la progettazione di sistemi e gli obiettivi dei risultati." La programmazione diventerà "programmare in inglese", guidando l'AI a livello macro.


Open Source vs Closed Source

La Dominanza Cinese nei Modelli Aperti

I modelli open-weight cinesi stanno dominando grazie a:

  • Architetture innovative (Mixture of Experts, ottimizzazioni KV cache)
  • Licenze veramente permissive
  • Prestazioni competitive (DeepSeek-V3.2, Qwen 3, Kimi K2 Thinking)

Gli Sforzi Americani

Nathan Lambert lavora su OLMo all'Allen Institute for AI, rilasciando modelli, dati e codice completamente open. Altri progetti notevoli:

  • Gemma (Google)
  • gpt-oss (OpenAI) - primo modello open di OpenAI da GPT-2
  • Nemotron 3 (NVIDIA)
  • SmolLM (Hugging Face)

Il Problema di Llama

Secondo i relatori, Llama ha perso slitta a causa di "politiche interne" e approccio focalizzato sui benchmark piuttosto che sulle esigenze degli utenti. Nathan Lambert: "Non vedo Llama supportato a quel livello in futuro."


Le Leggi di Scaling dell'AI

Tre Assi di Scaling

  1. Pre-training: Dimensione modello + quantità dati
  2. Reinforcement Learning: Addestramento post-training
  3. Inference-time compute: Generare più token per query

Il Pre-training Non è Morto

Contrariamente a quanto si dice, il pre-training continua, ma è estremamente costoso. DeepSeek ha speso ~$5 milioni solo per il pre-training a prezzi cloud.

Nathan Lambert: "Sono ottimista; tutte e tre le direzioni stanno funzionando, ma i frutti a portata di mano sono stati per lo più raccolti."

Sebastian Raschka: "Il scaling del pre-training non è morto; è solo che ci sono modi più attraenti di scalare ora."


Come si Allena l'AI: Le Tre Fasi

Pre-training

Predizione del token successivo su vasti dati internet, ora inclusi dati sintetici (riformulazioni, formati Q&A). Focus sulla qualità, non solo quantità.

Mid-training

Fase specializzata tra pre e post-training, focalizzata su capacità specifiche come documenti long-context, affrontando il problema del "catastrophic forgetting".

Post-training

  • Supervised fine-tuning
  • DPO (Direct Preference Optimization)
  • RLVR (Reinforcement Learning with Verifiable Rewards)

Nathan Lambert: "Il post-training RL è più come lo sblocco delle abilità, mentre il pre-training è come l'assorbimento della conoscenza."


Timeline Verso l'AGI

Definizione di AGI

Nathan Lambert definisce l'AGI come "qualcosa in grado di riprodurre la maggior parte del lavoro economico digitale" - essenzialmente un sostituto del lavoratore remoto.

Previsioni

  • Rapporto AI2027: Originariamente prevedeva coders superumani per 2027-2028, ora spostato al 2031
  • Lex Fridman: Predice timeline anche oltre il 2031 per l'AGI completa

Capacità Frastagliate

L'AI sarà "eccellente in alcune cose e molto scarsa in altre" - non uniformemente superumana. Per una vera singolarità, Nathan ritiene necessarie "idee totalmente nuove, non LLM, non RL".


L'AI Sostituirà i Programmatori?

Trasformazione, Non Eliminazione

Il software engineering si sposterà verso la "progettazione di sistemi e obiettivi di risultati". La programmazione diventerà guidare l'AI a livello macro piuttosto che gestire dettagli di codice.

Stato Attuale

Nathan Lambert: "Entro la fine di quest'anno, la quantità di software che sarà automatizzata sarà così alta."

Sebastian Raschka: "Non ho dubbi che gli LLM risolveranno il coding nel modo in cui le calcolatrici risolvono il calcolo."

Il Fattore Umano

Anche con AI avanzata, gli umani dirigeranno cosa costruire. La domanda fondamentale è se gli umani continueranno a chiedere o se l'AI agirà indipendentemente.


Il Futuro delle Aziende AI

Nessun Winner-Take-All

Nathan non vede un vincitore unico perché "il percorso di sviluppo è così simile per tutti". Si prevedono però acquisizioni multi-miliardarie (Groq valutata 20B,ScaleAI 20B,ScaleAI 30B).

La Commoditizzazione del LLM

OpenAI e Anthropic rischiano la commoditizzazione se forniscono solo API LLM. La diversificazione in prodotti e hardware è cruciale.

Il Futuro di Meta

Secondo Nathan, "Non vedo Llama supportato a quel livello in futuro" a causa di politiche interne, con Alexander Wang presumibilmente contrario all'open source.


Il Futuro di NVIDIA e del Compute

Il Vero Vantaggio: CUDA

Sebastian Raschka: "Il vantaggio di NVIDIA probabilmente non sono solo le GPU; è più l'ecosistema CUDA." Questo ecosistema software di 15+ anni crea un moat difficile da superare.

Dominio Continuato

Finché il progresso AI rimane rapido, la piattaforma flessibile di NVIDIA vince. In caso di stagnazione, chip custom (TPU, Trainium) diventano più attraenti.

Scaling del Compute

  • xAI raggiungerà scala 1-gigawatt all'inizio del 2026
  • 2 gigawatts entro fine anno
  • La maggior parte del compute ancora destinata al pre-training

Conclusioni

Lo stato dell'AI nel 2026 è caratterizzato da:

  1. Competizione globale intensificata senza un vincitore chiaro
  2. Democratizzazione attraverso modelli open-weight, con la Cina in vantaggio
  3. Trasformazione del coding verso paradigmi basati sull'inglese
  4. Continua validità delle scaling laws su tre assi diversi
  5. Prospettive AGI nel 2030+ con approccio graduale piuttosto che evento singolare

Come osserva Nathan Lambert: "Le idee circolano liberamente, ma le risorse per implementarle sono il vero vincolo." Il futuro dell'AI sarà definito non da chi possiede segreti tecnologici, ma da chi ha le risorse per scalare le stesse idee più velocemente ed efficientemente.