Se i LLM funzionano utilizzando la probabilità per prevedere il prossimo token basandosi sul riconoscimento dei modelli dai dati di addestramento possono mai produrre qualcosa al di fuori del modello o sono letteralmente incapaci di 'pensare fuori dagli schemi'? c'è qualcuno che lavora con allucinazioni deliberate come faceva DeepMind? mi piacerebbe sapere la tua opinione @karpathy, ma per favore indicami dove posso imparare di più se è una domanda stupida e non sto comprendendo come funzionano i LLM.