come funzionano effettivamente gli agenti AI. pensa a una conversazione come a un array di oggetti: sistema → utente → assistente → utente → assistente… il prompt del sistema definisce il ruolo. esempio: “sei un agente di programmazione che risolve problemi di programmazione.” poi l'utente chiede qualcosa. l'LLM riceve l'intera conversazione come contesto e inizia a generare i prossimi token. (cosa sono i token? piccoli pezzi di testo. un token può essere un'intera parola, parte di essa, spazi bianchi, ecc.) ma c'è un altro pezzo: gli strumenti. gli strumenti sono semplicemente funzioni che l'LLM è autorizzato a chiamare. per esempio: • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) questi vengono passati al modello come parte del contesto. quindi, invece di restituire solo testo, l'LLM può restituire chiamate agli strumenti. esempio:...