¿Podría un gran modelo inteligente tener de manera eficiente modelos de contexto largo pidiendo a un modelo tonto, pero pequeño y rápido, que lea el contexto más largo y lo resuma para el modelo inteligente?