Jak AI agenti vlastně fungují. Představte si konverzaci jako soubor objektů: Systém → uživatelský → asistent → uživatelský → asistent... systémový prompt definuje roli. Příklad: "Jste programátor, který řeší programátorské problémy." Pak se uživatel na něco zeptá. LLM přijímá celou konverzaci jako kontext a začíná generovat další tokeny. (Co jsou to tokeny? Malé kousky textu. Token může být celé slovo, jeho část, mezera atd.) Ale je tu ještě jedna věc: nástroje. Nástroje jsou jen funkce, které může LLM volat. Například: • read_file(cesta) • edit_file(cesta, obsah) • search_web(dotaz) • bash (příkaz) tyto jsou předány modelu jako součást kontextu. Takže místo pouhého vracení textu může LLM vracet volání nástrojů. Příklad:...