Fastal LangGraph Toolkit
Toolkit open source per la costruzione di agenti LangGraph enterprise con supporto multi-provider, gestione intelligente delle conversazioni e capacità di elaborazione vocale.
Caratteristiche principali
Multi-Provider Model Factory
Supporto per OpenAI (incluso GPT-5), Anthropic, Ollama, AWS Bedrock con switching trasparente tra provider.
Gestione Conversazioni Intelligente
Summarizzazione basata sulla struttura della conversazione, non solo sul conteggio token.
Speech Processing Enterprise
Elaborazione speech-to-text production-ready con supporto multi-formato e rilevamento lingua.
Memory Management
SummarizableState type-safe con integrazione nativa LangGraph e ottimizzazione token.
Un toolkit nato dall’esperienza
Il Fastal LangGraph Toolkit è stato sviluppato internamente dal Gruppo Fastal per supportare implementazioni enterprise di applicazioni agentiche su molteplici progetti cliente. Dopo averne dimostrato l’efficacia in ambienti di produzione, abbiamo reso open source questo toolkit per contribuire alla community LangGraph.
pip install fastal-langgraph-toolkit
Perché questo toolkit
Costruire agenti LangGraph production-ready richiede di risolvere sfide comuni in progetti avanzati di ricerca e sviluppo:
- Gestione Multi-Provider — Supporto per molteplici provider LLM/embeddings/speech con switching trasparente
- Gestione del Contesto — Summarizzazione intelligente delle conversazioni per sessioni di lunga durata
- Ottimizzazione Memoria — Gestione del contesto efficiente in termini di token per il controllo dei costi
- Elaborazione Vocale — Capacità di trascrizione speech-to-text enterprise-grade
- Type Safety — Gestione dello stato appropriata con integrazione TypedDict
- Configuration Injection — Separazione pulita tra logica di business e framework
Questo toolkit fornisce soluzioni testate in battaglia per queste sfide, estratte da implementazioni enterprise reali.
Funzionalità principali
Multi-Provider Model Factory
La versione attuale della model factory supporta i seguenti provider:
Supporto LLM: OpenAI (inclusi modelli GPT-5), Anthropic, Ollama, AWS Bedrock
Supporto Embeddings: OpenAI, Ollama, AWS Bedrock
Supporto Speech-to-Text: OpenAI Whisper (altri provider in arrivo)
Caratteristiche:
- Supporto completo GPT-5, GPT-5-mini e GPT-5-nano con mapping automatico dei parametri
- Configuration injection con astrazione pulita dei provider
- Health check dei provider per validazione disponibilità
- Cambio provider senza modifiche al codice
Elaborazione Vocale Enterprise
Elaborazione speech-to-text production-ready con affidabilità e performance enterprise-grade.
- Supporto multi-formato: MP3, WAV, M4A e altri formati audio comuni
- Rilevamento lingua automatico e hint personalizzati
- Processing asincrono completo per operazioni non-bloccanti
- Informazioni sui segmenti con timestamp e confidence
- Gestione errori robusta con logging dettagliato
- Lazy loading per gestione efficiente delle risorse
Summarizzazione Conversazioni Intelligente
Il framework LangChain/LangGraph fornisce buon supporto per la gestione della memoria a breve e lungo termine negli agenti attraverso il modulo LangMem. Tuttavia, abbiamo riscontrato che la summarizzazione automatica basata solo sul conteggio token non è un approccio sufficiente per la maggior parte degli agenti reali e complessi.
La soluzione inclusa in questo kit offre un metodo alternativo e più sofisticato, basato sulla struttura della conversazione e focalizzato sull’oggetto e il contenuto delle discussioni.
- Nodo LangGraph pronto all’uso: il metodo
summary_node()fornisce integrazione istantanea - Conteggio coppie conversazionali: rilevamento intelligente delle coppie Human+AI
- Filtraggio ReAct Tool: esclusione automatica delle chiamate tool dai riepiloghi
- Soglie configurabili per l’attivazione della summarizzazione
- Preservazione del contesto per le conversazioni recenti
- Template di summarizzazione domain-specific
- Auto-injection dello stato per integrazione trasparente
Memory Management
- SummarizableState: classe base type-safe per stati abilitati alla summarizzazione
- Gestione stato automatica: nessuna inizializzazione manuale dei campi richiesta
- Integrazione LangGraph: compatibilità nativa con LangGraph checkpointing
- Architettura pulita: separazione delle responsabilità tra summary e logica di business
Vantaggi
- Package Python open source su PyPI
- Testato in produzione su progetti enterprise reali
- Supporto completo GPT-5, GPT-5-mini, GPT-5-nano
- Integrazione nativa con LangGraph checkpointing