Hai mai provato a far sì che un prompt LLM ricerchi un argomento, E lo analizzi, E scriva un rapporto completo? 😅 Sì... non va bene. Ecco un modo migliore: suddividilo in agenti AI specializzati che gestiscono ciascuno un passaggio 🧵
La configurazione è semplice: assegna a ciascun agente un compito: 📡 Ricercatore — cerca in rete fonti reali 🔍 Analista — estrae intuizioni e schemi 🎯 Raccomandatore — trasforma tutto ciò in passi successivi attuabili ✍️ Scrittore — intreccia tutto in un rapporto finale Non parlano tra loro - condividono i dati attraverso lo stato della sessione.
Questo è il modello Sequential Agent in ADK-TS 🔗 Ogni agente viene eseguito in ordine, scrive il suo output in una chiave di stato e il successivo riprende da lì. Nessun trucco nei prompt per controllare il flusso. Nessun agente che calpesta l'altro. Solo passaggi puliti e facilmente debugabili.
381