Cómo funcionan realmente los agentes de IA. Piensa en una conversación como una serie de objetos: Asistente → → de usuario → asistente de usuario →... El sistema de consigna define el rol. Ejemplo: "Eres un agente de programación que resuelve problemas de programación." Entonces el usuario pregunta algo. El LLM recibe toda la conversación como contexto y comienza a generar los siguientes tokens. (¿Qué son los tokens? Pequeños fragmentos de texto. Un token puede ser una palabra entera, parte de ella, espacios en blanco, etc. Pero hay otra parte: las herramientas. Las herramientas son simplemente funciones que el LLM puede llamar. Por ejemplo: • read_file(camino) • edit_file(camino, contenido) • search_web(consulta) • bash (comando) estos se pasan al modelo como parte del contexto. Así que, en lugar de devolver solo texto, la LLM puede devolver llamadas a herramientas. Ejemplo:...