ランダムQ(AIモデルの内部構造についてはあまり詳しくありません) 大きなスマートモデルは、バカだけど小さくて高速なモデルに長いコンテキストを読み、スマートモデルのために要約させることで、効率的に長いコンテキストモデルを持てるのでしょうか?