人工智能代理实际上是如何工作的。 把对话想象成一个对象数组: 系统 → 用户 → 助手 → 用户 → 助手…… 系统提示定义了角色。 例如:“你是一个解决编程问题的编码代理。” 然后用户问一些问题。 大型语言模型(llm)接收整个对话作为上下文,并开始生成下一个标记。 (什么是标记?小块文本。 一个标记可以是一个完整的单词、它的一部分、空格等) 但还有另一个部分:工具。 工具只是llm被允许调用的函数。 例如: • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) 这些作为上下文的一部分传递给模型。 所以llm不仅返回文本,还可以返回工具调用。 例如:...