Hvis LLM-er bruker sannsynlighet for å forutsi neste token basert på mønstergjenkjenning fra treningsdata Kan de noen gang produsere noe utenfor mønsteret, eller er de bokstavelig talt ute av stand til å 'tenke utenfor boksen'? Er det noen som jobber med bevisste hallusinasjoner slik Deepmind gjorde? Jeg vil gjerne høre ditt synspunkt @karpathy men vær så snill å peke meg ut hvor jeg kan lære mer hvis det er et dumt spørsmål og jeg misforstår hvordan LLM-er fungerer