Tutti i case studies
Ricerca e Sanità Metabolic Intelligence Lab

Agenti IA per la medicina di precisione

Sviluppo di un layer di astrazione LLM per accelerare la ricerca e sviluppo di agenti IA nel settore della medicina di precisione e nutrizione personalizzata.

ottobre 2024
-70%
Time-to-experiment
250+
LLM supportati
0
Effort cambio LLM
Open Source
Rilascio

La sfida

I team di ricerca necessitavano di sperimentare rapidamente con diversi LLM e provider, ma ogni cambio richiedeva riscritture significative del codice e ri-ottimizzazione di prompt e contesti.

La soluzione

Creazione di uno strato software di astrazione che permette di sviluppare agenti IA in modo agnostico rispetto al provider e LLM, con infrastruttura ibrida AWS e Neo Cloud per hosting flessibile.

Profilo del Cliente

Il Metabolic Intelligence Lab è un centro di ricerca dell’Università Cattolica del Sacro Cuore diretto da un team di eccellenti ricercatori che vantano numerose pubblicazioni con indice di cite score estremamente elevato.

Il laboratorio conduce ricerche all’avanguardia nel settore del metabolismo, con l’obiettivo di comprenderne i meccanismi, dalle dinamiche cellulari fino al funzionamento dell’intero organismo.

La nostra azienda ha instaurato dal 2022 una collaborazione con questo centro di eccellenza, supportando lo sviluppo di modelli previsionali per la costruzione di un vero e proprio avatar metabolico dei pazienti, attraverso l’uso di algoritmi di machine learning quantistico.

Nel corso degli anni la collaborazione si è estesa alla rete di imprese nostre partner presso il Digital Innovation Hub di Roma e abbiamo sviluppato numerosi progetti collaborativi che hanno dato origine a prodotti innovativi nel settore di frontiera della medicina di precisione.

Il problema

Uno dei più importanti progetti di ricerca industriale che ci vede coinvolti riguarda lo sviluppo di una piattaforma di supporto ai medici nutrizionisti e i loro pazienti potenziata dall’IA.

L’obiettivo finale del progetto è quello di agevolare i processi di anamnesi iniziale dei pazienti e supportarli nella corretta gestione del proprio diario alimentare, uno strumento fondamentale per raccogliere dati concreti sulle reali assunzioni giornaliere dei diversi nutrienti.

La criticità del diario alimentare

La compilazione manuale del diario, ancorché assistita da applicazioni mobili o web, è uno degli aspetti più critici nella gestione dei pazienti.

A meno dei casi di effettive malattie di origine metabolica, la maggior parte dei pazienti che ha semplicemente esigenze di fitness o problemi medici minori, perde velocemente interesse nel protocollo dietetico prescritto proprio per mancanza di costanza e tempo nell’aggiornamento del diario alimentare.

Registrare pietanze, ingredienti e quantità è un’attività noiosa e spesso di difficile esecuzione pratica. Quanto burro ci sarà nei quattro frollini che ho mangiato a colazione questa mattina?

L’incoerenza e la mancanza di continuità nella registrazione dei pasti comporta inevitabilmente una scarsa qualità dell’input ai modelli previsionali basati sull’avatar metabolico, riducendone l’efficacia.

La soluzione

La soluzione al problema è stata individuata nell’impiego delle nuove tecnologie LLM e nella possibilità di realizzare un agente IA che assista l’utente nella gestione del proprio diario alimentare, rendendo veloce e semplice la registrazione dei pasti quotidiani.

Scenari d’uso

  • Pranzo di lavoro — Il paziente si trova a pranzo con i colleghi, davanti a sé un piatto con due tramezzini e un bicchiere di succo d’arancia. Estrae lo smartphone, fotografa il pasto e lo invia all’assistente. L’IA analizza l’immagine, identifica il ripieno dei tramezzini, stima le quantità degli ingredienti e procede alla compilazione del diario alimentare, chiedendo semplicemente conferma.

  • Al ristorante — Il paziente ha davanti a sé il menù aperto. Fotografa il menù e chiede un consiglio su cosa ordinare. L’IA consulta il diario alimentare, valuta gli obiettivi nutrizionali, considera le prescrizioni del medico nutrizionista e suggerisce le possibili scelte in ordine di priorità.

Le sfide tecniche

L’implementazione di un agente IA di questo tipo richiede un elevato volume di lavoro in attività di sperimentazione e test. Le prestazioni dell’agente sono fortemente dipendenti dalle scelte progettuali in termini di context engineering e dai particolari LLM usati.

Esistono inoltre elementi di carattere economico che pongono ulteriori sfide:

  • Costi dei modelli SotA — I modelli generalisti State-of-the-Art permettono di raggiungere facilmente gli obiettivi con poco sforzo, ma il loro impiego è particolarmente costoso e non sostenibile per applicazioni su larga scala.

  • Specializzazione dei modelli — LLM diversi eccellono in aree diverse: visione artificiale, ragionamento astratto, comprensione dell’intento, capacità agentiche. Le prestazioni variano significativamente tra modello e modello.

  • Obsolescenza rapida — L’affinamento delle tecniche di context engineering è specifico per ogni versione di LLM. I modelli hanno vita commerciale di 6-8 mesi, costringendo spesso a ricominciare l’ottimizzazione da capo.

  • Opportunità open source — Modelli come Qwen2.5-VL di Alibaba eguagliano GPT-4o-mini nel riconoscimento di pietanze, aprendo interessanti opzioni di self-hosting a costi contenuti.

La nostra risposta

La soluzione offerta da Fastal è stata la creazione di uno strato software di astrazione che permette ai team di sviluppo di costruire agenti AI in maniera agnostica rispetto allo specifico provider e LLM utilizzato.

Lo sviluppo di questo componente è stato l’innesco che ha portato alla realizzazione del nostro Fastal LangGraph Toolkit, successivamente rilasciato in regime open source.

Architettura della soluzione

La soluzione messa in campo per il progetto Byo-Me è ben più completa del semplice layer di disintermediazione:

  • Model Factory Pattern — Il framework espone in modo astratto le componenti backbone su cui sono costruiti gli agenti
  • Infrastruttura ibrida — Supporto sia per ambienti di R&D che staging e produzione
  • Multi-cloud — Architettura scalabile e resiliente che sfrutta AWS e i nuovi Neo Cloud con GPU virtuali a basso costo per hosting e fine-tuning di modelli open source

Risultati

Il progetto ha generato un asset tecnologico riutilizzabile che accelera significativamente lo sviluppo di agenti IA, riducendo i tempi di sperimentazione e i costi infrastrutturali, mantenendo la flessibilità necessaria per adattarsi rapidamente all’evoluzione del panorama LLM.

Tecnologie utilizzate

Fastal LangGraph Toolkit LangGraph AWS Neo Cloud GPU Qwen2.5-VL GPT-5 Ollama FastAPI

Hai un progetto simile?

Parliamo di come possiamo aiutarti a raggiungere i tuoi obiettivi.

Contattaci