我将补充一点关于人类的优点。人类对自己行为的结果有更大的理解能力。代理和大型语言模型(LLMs)则永远无法做到这一点。 即使是18个月大的婴儿也会学会当他们把水杯推下高椅时会发生什么。妈妈会生气,过来清理。他们很快就会明白。 代理可以告诉你水杯会掉下来。但他们对上下文和接下来会发生什么毫无概念。 另一个问题是代理会“走神”。(我相信已经有这个术语了)。由于许多不同的原因,无法保证代理每次都以相同的方式执行。更糟糕的是,他们无法告诉你他们“走神”了,为什么以及何时走神。 代理仍然像是那些喝醉酒的大学实习生,犯错误却不承担责任 :) 一如既往,想知道大家的看法。