как на самом деле работают агенты ИИ. представьте себе разговор как массив объектов: система → пользователь → ассистент → пользователь → ассистент… системный запрос определяет роль. пример: "вы агент по программированию, который решает проблемы программирования." затем пользователь что-то спрашивает. llm получает весь разговор в качестве контекста и начинает генерировать следующие токены. (что такое токены? маленькие кусочки текста. токен может быть целым словом, его частью, пробелом и т.д.) но есть еще один элемент: инструменты. инструменты — это просто функции, которые llm разрешено вызывать. например: • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) они передаются модели как часть контекста. поэтому вместо того, чтобы просто возвращать текст, llm может возвращать вызовы инструментов. пример:...