Q acak (tidak tahu banyak tentang internal model AI) Bisakah model pintar besar secara efisien memiliki model konteks yang panjang dengan meminta model bodoh, tetapi kecil dan cepat, untuk membaca konteks yang lebih panjang dan meringkas untuk model pintar?