Como os agentes de IA realmente funcionam. Pense em uma conversa como uma variedade de objetos: Assistente →→ → assistente → de do sistema... O prompt do sistema define o papel. Exemplo: "Você é um agente de programação que resolve problemas de programação." Então o usuário pergunta algo. O LLM recebe toda a conversa como contexto e começa a gerar os próximos tokens. (O que são tokens? pequenos pedaços de texto. um token pode ser uma palavra inteira, parte dela, espaços em branco, etc) Mas há outra peça: ferramentas. Ferramentas são apenas funções que a LLM pode chamar. Por exemplo: • read_file(caminho) • edit_file(caminho, conteúdo) • search_web(consulta) • bash (comando) esses são passados ao modelo como parte do contexto. Então, em vez de apenas responder texto, a LLM pode retornar chamadas de ferramenta. Exemplo:...