A única coisa que vou acrescentar como ponto positivo para os humanos. Os humanos têm uma capacidade muito maior de conhecer os resultados de suas ações. Agentes e LLMs também nunca fazem isso. Até uma criança de 18 meses vai aprender o que acontece quando empurra o copo para fora da cadeirinha. A mãe fica chateada. Vem e tem que se limpar. Eles descobrem rápido Os agentes podem te dizer que o copo vai cair. Mas eles não têm ideia do contexto nem do que vai acontecer a seguir Outro problema é que os agentes "se esvaem". (Tenho certeza de que já existe um termo para isso). Não há garantias, por vários motivos, de que o agente executará da mesma forma todas as vezes. Para piorar, eles não podem te dizer que "se desconectaram", por que e quando. Agentes ainda são como estagiários universitários que chegam de ressaca, cometem erros e não assumem a responsabilidade por eles :) Como sempre, estou curioso para saber o que todos pensam.