como os agentes de IA realmente funcionam. pense numa conversa como um array de objetos: sistema → utilizador → assistente → utilizador → assistente… a prompt do sistema define o papel. exemplo: “você é um agente de codificação que resolve problemas de programação.” depois, o utilizador pergunta algo. o llm recebe toda a conversa como contexto e começa a gerar os próximos tokens. (o que são tokens? pequenas partes de texto. um token pode ser uma palavra inteira, parte dela, espaço em branco, etc) mas há outra parte: ferramentas. ferramentas são apenas funções que o llm pode chamar. por exemplo: • read_file(caminho) • edit_file(caminho, conteúdo) • search_web(query) • bash(comando) estas são passadas ao modelo como parte do contexto. então, em vez de apenas retornar texto, o llm pode retornar chamadas de ferramentas. exemplo:...