Jika LLM bekerja menggunakan probabilitas untuk memprediksi token berikutnya berdasarkan pengenalan pola dari data pelatihan Bisakah mereka menghasilkan sesuatu di luar pola atau apakah mereka benar-benar tidak dapat 'berpikir di luar kotak'? Ada yang bekerja dengan halusinasi yang disengaja seperti DeepMind? akan menyukai pendapat Anda @karpathy tetapi tolong tunjukkan saya ke mana saya dapat belajar lebih banyak jika itu pertanyaan bodoh dan saya salah paham bagaimana LLM bekerja