Dal primo gennaio del 2026 è disponibile sull’area di staging di un nostro importante e recente progetto il connettore MCP che permette di connettere il sistema, che è un prodotto gestionale tradizionale, ad un agente IA come ChatGPT o Claude, consentendo agli utenti di operare impartendo richieste in linguaggio naturale anziché utilizzare l’UI convenzionale del prodotto.
Si tratta di una milestone importante nell’evoluzione delle interfacce utente dei nostri sistemi e il tema merita un approfondimento.
L’evoluzione delle interfacce utente
L’avvento degli assistenti IA come ChatGPT, Claude e Gemini sta inevitabilmente cambiando il nostro modo di interagire con il web. L’immediatezza delle risposte dei nuovi deep agent, paradigma oramai standard in tutti i moderni assistenti, sta diventando la modalità preferenziale per le nostre ricerche sul web.
Così come, in passato, la diffusione del web ebbe un impatto significativo sul design delle interfacce utente delle applicazioni tradizionali, è facilmente prevedibile che le nuove interfacce di tipo conversazionale, a cui ci stiamo abituando nell’interazione quotidiana con gli assistenti IA, diventeranno sempre di più le modalità di interfaccia standard con qualunque tipo di applicazione.
Dalle chatbot ai sistemi agentici
Mentre il mondo della ricerca accademica ed industriale si interroga sul futuro e sull’evoluzione delle tecnologie LLM, è innegabile che le aziende impegnate nella feroce competizione scatenata nel settore continuano a rilasciare prodotti che hanno da tempo superato lo stadio di giocattoli chatbot dall’effetto wow, iniziando ad essere di utilità nelle attività quotidiane svolte al computer.
Il punto di svolta è stato il rilascio delle prime applicazioni agentiche, cioè applicazioni software in cui il workflow di elaborazione non è predeterminato a priori dal programmatore ma è frutto dell’output e del “ragionamento” di un LLM.
I nuovi LLM sono addestrati per richiedere l’utilizzo di tools ogni volta che la situazione e il compito assegnato richiede un supplemento di informazione o l’esecuzione di particolari azioni.
Un LLM moderno può essere invocato passando nell’input la descrizione di una serie di funzioni software disponibili e richiamabili secondo certe modalità. La descrizione di queste funzionalità disponibili diventano parte del prompt, e il LLM risponde con una richiesta di esecuzione di queste funzioni se il compito assegnato lo richiede.
Un agente è un software che usa un LLM per analizzare l’input dell’utente e per comprenderne l’intento, per definire un piano di azione e per supportare ogni step del piano fino al completamento del compito.
I tools sono l’elemento di connessione tra il ragionamento parlato dei LLM e le applicazioni software che utilizziamo quotidianamente.
Un agente come ChatGPT non è più soltanto un generatore di contenuti e un oracolo da consultare, ma anche un sistema in grado di compiere azioni e attività interfacciandosi con altri prodotti software.
Il protocollo MCP
Su questo aspetto è significativo il rapido sviluppo del protocollo MCP.
Il Model Context Protocol (MCP) è uno standard aperto che definisce come i modelli di AI (soprattutto LLM) si connettono in modo sicuro e uniforme a strumenti, API, database e file esterni, fungendo da “strato di traduzione” tra assistente e sistemi reali.
L’annuncio ufficiale del MCP come standard aperto risale a novembre 2024, con rilascio di SDK e reference server open source.
Il successo è stato globale e immediato. Dal 2025 si è visto un ecosistema crescente di server MCP, registry, guide e strumenti commerciali/OSS.
Provider e piattaforme AI lo stanno progressivamente adottando o supportando, rendendolo un candidato di fatto a standard di settore per l’integrazione tra agenti e dati/strumenti.
Fastal e MCP
In Fastal siamo stati pionieri nella sua adozione, iniziandone la sperimentazione sin dalle prime beta release diffuse da Anthropic che è il nostro principale provider IA di riferimento.
In concomitanza con il rilascio della versione dell’11 novembre 2025 abbiamo deciso di consolidare e rilasciare il nostro framework per lo sviluppo rapido di server MCP per applicazioni gestionali.
A partire dall’inizio 2026 i rilasci delle nuove versioni dei nostri prodotti storici e dei nuovi sistemi custom comprenderanno server MCP che esporranno subset selezionati e controllati di funzionalità applicative, consentendo la creazione di connettori custom sui principali assistenti IA commerciali.
Compatibilità
Attualmente i prodotti di Anthropic Claude Web, Claude Code e Claude Desktop supportano pienamente il protocollo MCP e risultano totalmente compatibili con i nostri server MCP.
OpenAI ha rilasciato a dicembre 2025 in developers preview la funzionalità di definizione dei connettori MCP custom e, con qualche limitazione dovuta alla natura ancora sperimentale della feature su ChatGPT, l’interfaccia risulta compatibile con le nostre soluzioni.