Q aleatorio (no sé mucho sobre los internos de modelos de IA) ¿Podría un modelo inteligente grande tener modelos de contexto largo de forma eficiente pidiendo a un modelo tonto, pero pequeño y rápido, que lea el contexto más largo y lo resuma para el modelo inteligente?