AIエージェントが実際にどのように機能しているか。 会話をオブジェクトの配列と考えてみてください: システム→ユーザー→アシスタント→ユーザー→アシスタント... システムプロンプトが役割を定義します。 例:「あなたはプログラミングの問題を解決するコーディングエージェントです。」 その後、ユーザーは何かを尋ねます。 LLMは会話全体をコンテキストとして受け取り、次のトークンの生成を開始します。 (トークンとは何でしょうか?小さなテキストの断片です。 トークンは単語全体でも、一部でも、余白でも構いません) しかしもう一つ、道具です。 ツールは単にLLMが呼び出すことを許可された関数です。 例えば: • read_file(道) • edit_file(パス、内容) • search_web(クエリ) • bash(コマンド) これらはコンテキストの一部としてモデルに渡されます。 つまり、テキストを返すだけでなく、LLMはツール呼び出しを返すことができます。 例:...