2 min read

Model Context Protocol (MCP): Superare i Limiti degli LLM con un Protocollo Aperto. Anche per AI locali!

Anche gli LLM più piccoli riescono a chiamare l'azione MCP più corretta
Anche Qwen2.5 VL 3B riesce a chiamare l'azione MCP pìù corretta

I modelli di intelligenza artificiale, come quelli che utilizziamo quotidianamente, presentano limiti significativi:

  • Nessun accesso a dati in tempo reale
  • Impossibilità di interagire con il computer locale o servizi esterni (es. software installati)

Queste barriere sono state mitigate, ma diventano critiche quando servono risposte basate su informazioni aggiornate o specifiche.

Un utilizzo che ultimamente ha fatto parlare di sè è l' integrazione MCP+Blender ovvero la possibilità di creare semplici modelli 3D fornendo una descrizione testuale.

Il Model Context Protocol (MCP) emerge come soluzione promettente per superare queste restrizioni. In questo articolo esploreremo:

  1. Cos'è MCP
  2. Come si confronta con il function calling tradizionale

Cos’è MCP?

MCP è un protocollo aperto che standardizza il modo in cui le applicazioni forniscono contesto ai Large Language Models (LLM).

L'analogia perfetta:

"Pensatelo come una porta USB-C per l'AI: un'interfaccia universale per connettere modelli a strumenti e fonti dati."

Architettura chiave:

  • MCP Hosts: Applicazioni (es. desktop AI, IDE) che richiedono servizi
  • MCP Servers: Componenti leggeri che accedono a:
    • Dati locali (file, database)
    • Risorse remote (API, sistemi esterni)

Vantaggi principali:

✅ Riduce la complessità delle integrazioni
✅ Abilita agenti AI più potenti (es. gestione documenti aziendali, automazione flussi di lavoro)
✅ Migliora l'accuratezza delle risposte grazie al contesto dinamico

Sviluppato da Anthropic e aperto alla comunità.

🔍 Approfondimento: Leggi l'introduzione ufficiale a MCP

Anche OpenAI ChatGPT ha deciso di supportare MCP.

MCP vs Function Calling

Il function calling è il processo con cui un LLM traduce un input in linguaggio naturale in istruzioni per chiamare una funzione o un’API, come cercare sul web. Tuttavia, non ha uno standard universale, e le implementazioni variano tra fornitori, rendendo le integrazioni difficili da scalare. MCP, invece, si concentra sull’esecuzione standardizzata di queste chiamate, usando formati come JSON-RPC 2.0 per garantire interoperabilità e scalabilità, specialmente in sistemi complessi. In pratica, function calling è la fase iniziale di traduzione, mentre MCP gestisce l’esecuzione, rendendolo preferibile per scenari che richiedono sicurezza e flessibilità.

Quali LLM locali supportano MCP ?

Il protocollo MCP è ancora relativamente recente, ma dai test preliminari che ho fatto alcuni modelli AI locali che supportano function calling (detto anche tool usage) supportano anche MCP, tuttavia i modelli più piccoli potrebbero confondersi su quale chiamata eseguire, quindi il consiglio rimane sempre di testare i prompt su scenari verosimili e vedere come si comportano nel proprio caso d'uso.

Model Status
Typhoon2 8B
UI-TARS 72B
Gemini 2.5 pro
Qwen2.5 VL 3B Instruct ✅ WINNER
Qwen2.5-7B PARZIALE
Mistral small 3.1 24b
Gemma 3 12B PARZIALE
Phi4-14B NO
Meta: Llama 3.1 70B Instruct
DeepSeek R1 Distill Qwen 14B

Il modello locale più impressionante è Qwen2.5 VL 3B che riesce a superare il test MCP nonostante la sua piccola dimensione.

⏰ ACCEDI a Techonsapevole Academy e IMPARA a crearti la tua INTELLIGENZA ARTIFICIALE PRIVATA, 100% PRIVACY con Techonsapevole Academy.