comment fonctionnent réellement les agents d'IA. pensez à une conversation comme à un tableau d'objets : système → utilisateur → assistant → utilisateur → assistant… le prompt du système définit le rôle. exemple : « vous êtes un agent de codage qui résout des problèmes de programmation. » ensuite, l'utilisateur pose une question. le llm reçoit l'ensemble de la conversation comme contexte et commence à générer les prochains tokens. (que sont les tokens ? de petits morceaux de texte. un token peut être un mot entier, une partie de celui-ci, un espace, etc) mais il y a un autre élément : les outils. les outils ne sont que des fonctions que le llm est autorisé à appeler. par exemple : • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) ceux-ci sont passés au modèle comme partie du contexte. donc au lieu de ne retourner que du texte, le llm peut retourner des appels d'outils. exemple :...