A única coisa que vou acrescentar do lado positivo do balanço para os humanos. Os humanos têm uma capacidade muito maior de conhecer os resultados das suas ações. Os agentes e LLMs também, nunca o fazem. Até uma criança de 18 meses aprende o que acontece quando empurra o copo de treino do seu cadeirão. A mãe fica chateada. Vem e tem que limpar. Eles percebem isso rapidamente. Os agentes podem dizer que o copo de treino vai cair. Mas não têm ideia do contexto e do que acontecerá a seguir. O outro problema é que os agentes "desligam-se". (Tenho certeza de que já existe um termo para isso). Não há garantias, por várias razões, de que o agente execute da mesma forma todas as vezes. Para piorar as coisas, eles não podem dizer que "desligaram-se", por que e quando. Os agentes ainda são como estagiários universitários que chegam de ressaca, cometem erros e não assumem a responsabilidade por eles :) Como sempre, curioso para saber o que todos pensam.