jak właściwie działają agenci AI. pomyśl o rozmowie jako o tablicy obiektów: system → użytkownik → asystent → użytkownik → asystent… definicja systemu określa rolę. przykład: „jesteś agentem kodowania, który rozwiązuje problemy programistyczne.” następnie użytkownik zadaje pytanie. llm otrzymuje całą rozmowę jako kontekst i zaczyna generować następne tokeny. (czym są tokeny? małe fragmenty tekstu. token może być całym słowem, jego częścią, białą przestrzenią itp.) ale jest jeszcze inny element: narzędzia. narzędzia to po prostu funkcje, które llm ma prawo wywoływać. na przykład: • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) te funkcje są przekazywane do modelu jako część kontekstu. więc zamiast tylko zwracać tekst, llm może zwracać wywołania narzędzi. przykład:...