Tilfeldig spørsmål (vet ikke så mye om AI-modellens internt) Kan en stor smart modell effektivt ha lange kontekstmodeller ved å be en dum, men liten og rask, modell om å lese den lengre konteksten og oppsummere for smartmodellen?