Domanda casuale (non so molto sugli interni dei modelli AI) Un grande modello intelligente potrebbe avere modelli di contesto lunghi in modo efficiente chiedendo a un modello stupido, ma piccolo e veloce, di leggere il contesto più lungo e riassumere per il modello intelligente?