Si los LLM funcionan utilizando probabilidades para predecir el siguiente token basado en el reconocimiento de patrones a partir de datos de entrenamiento ¿pueden alguna vez producir algo fuera del patrón o son literalmente incapaces de 'pensar fuera de la caja'? ¿hay alguien trabajando con alucinaciones deliberadas como lo hacía DeepMind? me encantaría conocer tu opinión @karpathy, pero por favor indícame dónde puedo aprender más si es una pregunta tonta y estoy malinterpretando cómo funcionan los LLM.