Hvordan AI-agenter faktisk fungerer. Tenk på en samtale som en rekke objekter: System → bruker → assistent → bruker → assistent... Systemprompten definerer rollen. Eksempel: «Du er en kodeagent som løser programmeringsproblemer.» Så spør brukeren om noe. LLM-en mottar hele samtalen som kontekst og begynner å generere de neste tokenene. (Hva er tokens? små tekstbiter. en token kan være et helt ord, en del av det, blankrom, osv.) Men det er en annen del: verktøy. Verktøy er bare funksjoner som LLM-en har lov til å kalle. For eksempel: • read_file(sti) • edit_file(sti, innhold) • search_web(søk) • bash (kommando) disse overføres til modellen som en del av konteksten. Så i stedet for bare å returnere tekst, kan LLM-en returnere verktøykall. Eksempel:...