Eğer LLM'ler, eğitim verisinden alınan desen tanıma temelinde bir sonraki tokenı tahmin etmek için olasılık kullanarak çalışıyorsa, Kalıp dışında bir şey üretebiliyorlar mı yoksa 'kutunun dışında düşünemiyorlar' mı? Deepmind gibi kasıtlı halüsinasyonlarla çalışan var mı? Görüşünüzü çok isterim @karpathy ama eğer aptalca bir soruysa ve LLM'lerin nasıl çalıştığını yanlış anlıyorsam lütfen nereden daha fazla öğrenebileceğimi gösterin