Pergunta aleatória (não sei muito sobre os internos do modelo de IA) Um grande modelo inteligente poderia ter eficientemente modelos de longo contexto pedindo a um modelo pequeno e rápido, mas burro, para ler o contexto mais longo e resumir para o modelo inteligente?