Torna al blog
Opinione

La bolla IA sta per scoppiare? La nostra modesta opinione sul futuro degli Agenti basati su LLM

L'evoluzione dei LLM ha rallentato, ma l'IA sta diventando molto più interessante sul piano ingegneristico. È qui che Fastal concentra la sua R&D.

Fastal 28 dicembre 2025
Il futuro dell'Intelligenza Artificiale e degli Agenti LLM

L’evoluzione dei LLM ha chiaramente rallentato, ma nel breve periodo l’IA sta diventando molto più interessante sul piano ingegneristico che su quello “puramente modellistico”. È esattamente in questo spazio – dove i limiti strutturali dei LLM vengono gestiti con architetture, matematica e agenti profondi – che Fastal sta concentrando la sua ricerca e sviluppo.

Dal plateau dei LLM alla “bolla IA”

Negli ultimi anni il salto percepito tra una generazione di modelli e la successiva si è ridotto drasticamente: GPT-5 è stato accolto con una combinazione di hype iniziale e forte delusione, con molti analisti che parlano di plateau tecnico più che di rivoluzione. Anche nel mainstream si fa strada la narrativa della “bolla IA”, con voci scettiche come quella autorevole e nello stesso tempo controversa di Gary Marcus che da sempre hanno sottolineato i limiti strutturali del semplice scaling di dati e parametri.

Parallelamente, il discorso sull’AGI si è spostato: cresce il consenso sul fatto che non si arriverà alla generalità solo aumentando la dimensione dei LLM, ma intervenendo sulla struttura del ragionamento, sull’integrazione con strumenti esterni e su forme di ibridazione neuro-simbolica. Questo cambio di paradigma apre spazio a un nuovo tipo di innovazione, meno spettacolare nei benchmark ma molto più concreta nei contesti aziendali.

Prodotti che funzionano, nonostante il plateau

Mentre il dibattito pubblico oscilla tra entusiasmo e disillusione, le aziende che competono in prima linea continuano a rilasciare prodotti basati su LLM con performance sempre più affidabili nei workflow reali. Anche se il “core” dei modelli migliora in modo incrementale, le soluzioni enterprise stanno diventando credibilmente utili per automazione documentale, assistenza utenti, coding assistito e supporto ai processi decisionali.

Il salto qualitativo deriva da tre leve principali:

  • orchestrazione di più modelli e servizi (non un solo LLM “onnipotente”);
  • uso estensivo di strumenti esterni (API, database, motori di ricerca, sistemi interni);
  • controllo sempre più rigoroso di contesto, memoria e formati di output.

È in questo tipo di integrazione – più che nel nuovo “super-modello” – che Fastal vede il vero valore per imprese e Pubblica Amministrazione.

Come si aggirano i limiti dei LLM

I limiti noti dei LLM (allucinazioni, mancanza di memoria a lungo termine, difficoltà su compiti multi-step) vengono oggi affrontati con pattern architetturali ben precisi. Alcuni elementi chiave:

Memoria esterna e stato persistente

I deep agents separano la memoria dal contesto del prompt, usando file system, database relazionali o vettoriali come fonte di verità accessibile via tool. Il modello non “ricorda tutto”, ma impara a leggere e scrivere in uno spazio informativo strutturato, più vicino a come lavorano i sistemi informativi aziendali.

Tool e azioni nel mondo

L’agente non produce solo testo, ma può invocare strumenti atomici: query su database, chiamate a servizi esterni, esecuzione di codice, manipolazione di file. Questo sposta parte dell’intelligenza dal modello al sistema che orchestra tool e controlli, migliorando affidabilità e auditabilità.

Extreme context engineering

I sistemi più avanzati fanno un uso sofisticato del prompt di sistema: protocolli dettagliati, regole di arresto, criteri per creare sotto-agenti, standard di naming e formati di risposta. Il modello viene trattato come un motore di inferenza statistico da incanalare in procedure altamente strutturate, riducendo la variabilità indesiderata.

Questa ingegneria “intorno” al LLM è oggi la vera frontiera su cui si gioca l’affidabilità applicativa, e rappresenta un terreno naturale per un’azienda come la nostra con forte competenza su architetture, basi dati e integrazione di sistemi.

System 2 e matematica del ragionamento

Nel dibattito contemporaneo, “System 2” indica l’insieme di tecniche che mirano a introdurre forme di pensiero più lente, deliberative e verificabili sopra (o accanto) al comportamento “System 1” rapido e associativo dei LLM. L’idea riprende la distinzione psicologica fra sistema intuitivo e sistema razionale, ma la traduce in meccanismi computazionali: pianificazione, verifica, decomposizione in passi, controllo formale.

In questa direzione si colloca l’uso di matematica più raffinata per controllare la coerenza del ragionamento:

  • tecniche topologiche e di geometria dell’ottimizzazione per analizzare la struttura dello spazio delle soluzioni e rendere più stabile la traiettoria del modello durante il reasoning;
  • metodi di verifica e ricerca esplicita (ad esempio tree-of-thoughts, esplorazione guidata, sampling controllato) per esplorare più catene di ragionamento e scegliere quelle coerenti con vincoli logici o obiettivi di costo;
  • integrazione con motori simbolici o proof assistant per ottenere garanzie formali su passaggi matematici o logici critici.

Questa “protesi matematica” non trasforma magicamente i LLM in sistemi pienamente logici, ma riduce in modo drastico errori grossolani e inconsistenze, rendendo il loro utilizzo più sicuro in contesti regolati e mission-critical. È una delle traiettorie che consideriamo strategiche per applicazioni in ambiti regolamentati come AML, compliance e pubblica amministrazione.

Deep agents e il modello Fastal

I cosiddetti deep agents (o Agents 2.0) rappresentano l’evoluzione degli agenti “a loop singolo” verso architetture complesse, capaci di gestire task lunghi, multi-step e distribuiti nel tempo. Esempi come Claude Code mostrano agenti che pianificano, scrivono file, eseguono codice, verificano i risultati, iterano e documentano autonomamente il processo, mantenendo uno stato coerente tra una iterazione e l’altra.

Questi sistemi presentano quattro pilastri fondamentali:

  • Pianificazione esplicita: il modello decide quando fermarsi a pianificare, decomporre il problema, definire milestone e criteri di successo prima di agire.
  • Sotto-agenti specializzati: un orchestratore delega compiti a agenti specifici (per scraping, code-editing, analisi dati, interazione utente) con responsabilità ben delimitate.
  • Memoria e file system: il lavoro non vive solo nel contesto, ma in file e strutture persistenti che gli agenti leggono e aggiornano nel tempo.
  • Protocolli rigorosi di collaborazione uomo-macchina: standard per i formati dei file, regole per chiedere conferma all’utente, criteri di arresto, log dettagliati per audit.

Per noi questo è il panorama veramente interessante: non l’ennesimo modello “più grande”, ma un ecosistema di agenti profondi, strumenti e controlli che trasformano i LLM in componenti di sistemi informativi intelligenti. È qui che stiamo indirizzando le attività di ricerca e sviluppo:

  • progettazione di deep agents verticali su domini regolati (AML, compliance, PA), dove la tracciabilità del reasoning è cruciale;
  • sperimentazione di architetture System 2 che combinano LLM, motori simbolici e memoria strutturata per ridurre errori e migliorare la verificabilità;
  • sviluppo di framework e pattern riutilizzabili per integrare questi agenti nei sistemi legacy delle imprese, con particolare attenzione a sicurezza, governance e sovranità dei dati.

In sintesi, se il ciclo “modello nuovo → stupore → bolla” sta rallentando, il ciclo “architettura migliore → processo più affidabile → valore di business” è appena iniziato. È su questo secondo ciclo che abbiamo scelto di investire, convinti che la vera innovazione dei prossimi anni sarà meno appariscente ma molto più trasformativa per il lavoro quotidiano.

Intelligenza Artificiale LLM Deep Agents System 2

Ti è piaciuto questo articolo?

Contattaci per scoprire come possiamo aiutarti con le nostre soluzioni.

Contattaci