Tutti i prodotti
Toolkit production-ready per agenti LangGraph enterprise

Fastal LangGraph Toolkit

Toolkit open source per la costruzione di agenti LangGraph enterprise con supporto multi-provider, gestione intelligente delle conversazioni e capacità di elaborazione vocale.

Caratteristiche principali

Multi-Provider Model Factory

Supporto per OpenAI (incluso GPT-5), Anthropic, Ollama, AWS Bedrock con switching trasparente tra provider.

Gestione Conversazioni Intelligente

Summarizzazione basata sulla struttura della conversazione, non solo sul conteggio token.

Speech Processing Enterprise

Elaborazione speech-to-text production-ready con supporto multi-formato e rilevamento lingua.

Memory Management

SummarizableState type-safe con integrazione nativa LangGraph e ottimizzazione token.

Un toolkit nato dall’esperienza

Il Fastal LangGraph Toolkit è stato sviluppato internamente dal Gruppo Fastal per supportare implementazioni enterprise di applicazioni agentiche su molteplici progetti cliente. Dopo averne dimostrato l’efficacia in ambienti di produzione, abbiamo reso open source questo toolkit per contribuire alla community LangGraph.

pip install fastal-langgraph-toolkit

Vai al package su PyPI

Perché questo toolkit

Costruire agenti LangGraph production-ready richiede di risolvere sfide comuni in progetti avanzati di ricerca e sviluppo:

  • Gestione Multi-Provider — Supporto per molteplici provider LLM/embeddings/speech con switching trasparente
  • Gestione del Contesto — Summarizzazione intelligente delle conversazioni per sessioni di lunga durata
  • Ottimizzazione Memoria — Gestione del contesto efficiente in termini di token per il controllo dei costi
  • Elaborazione Vocale — Capacità di trascrizione speech-to-text enterprise-grade
  • Type Safety — Gestione dello stato appropriata con integrazione TypedDict
  • Configuration Injection — Separazione pulita tra logica di business e framework

Questo toolkit fornisce soluzioni testate in battaglia per queste sfide, estratte da implementazioni enterprise reali.

Funzionalità principali

Multi-Provider Model Factory

La versione attuale della model factory supporta i seguenti provider:

Supporto LLM: OpenAI (inclusi modelli GPT-5), Anthropic, Ollama, AWS Bedrock

Supporto Embeddings: OpenAI, Ollama, AWS Bedrock

Supporto Speech-to-Text: OpenAI Whisper (altri provider in arrivo)

Caratteristiche:

  • Supporto completo GPT-5, GPT-5-mini e GPT-5-nano con mapping automatico dei parametri
  • Configuration injection con astrazione pulita dei provider
  • Health check dei provider per validazione disponibilità
  • Cambio provider senza modifiche al codice

Elaborazione Vocale Enterprise

Elaborazione speech-to-text production-ready con affidabilità e performance enterprise-grade.

  • Supporto multi-formato: MP3, WAV, M4A e altri formati audio comuni
  • Rilevamento lingua automatico e hint personalizzati
  • Processing asincrono completo per operazioni non-bloccanti
  • Informazioni sui segmenti con timestamp e confidence
  • Gestione errori robusta con logging dettagliato
  • Lazy loading per gestione efficiente delle risorse

Summarizzazione Conversazioni Intelligente

Il framework LangChain/LangGraph fornisce buon supporto per la gestione della memoria a breve e lungo termine negli agenti attraverso il modulo LangMem. Tuttavia, abbiamo riscontrato che la summarizzazione automatica basata solo sul conteggio token non è un approccio sufficiente per la maggior parte degli agenti reali e complessi.

La soluzione inclusa in questo kit offre un metodo alternativo e più sofisticato, basato sulla struttura della conversazione e focalizzato sull’oggetto e il contenuto delle discussioni.

  • Nodo LangGraph pronto all’uso: il metodo summary_node() fornisce integrazione istantanea
  • Conteggio coppie conversazionali: rilevamento intelligente delle coppie Human+AI
  • Filtraggio ReAct Tool: esclusione automatica delle chiamate tool dai riepiloghi
  • Soglie configurabili per l’attivazione della summarizzazione
  • Preservazione del contesto per le conversazioni recenti
  • Template di summarizzazione domain-specific
  • Auto-injection dello stato per integrazione trasparente

Memory Management

  • SummarizableState: classe base type-safe per stati abilitati alla summarizzazione
  • Gestione stato automatica: nessuna inizializzazione manuale dei campi richiesta
  • Integrazione LangGraph: compatibilità nativa con LangGraph checkpointing
  • Architettura pulita: separazione delle responsabilità tra summary e logica di business

Vantaggi

  • Package Python open source su PyPI
  • Testato in produzione su progetti enterprise reali
  • Supporto completo GPT-5, GPT-5-mini, GPT-5-nano
  • Integrazione nativa con LangGraph checkpointing

Interessato?

Contattaci per una demo o per ricevere maggiori informazioni.

Richiedi demo