Wenn LLMs mit Wahrscheinlichkeit arbeiten, um das nächste Token basierend auf Mustererkennung aus Trainingsdaten vorherzusagen können sie jemals etwas außerhalb des Musters produzieren oder sind sie buchstäblich nicht in der Lage, ‚outside the box‘ zu denken? arbeitet jemand mit absichtlichen Halluzinationen wie DeepMind? würde gerne deine Meinung hören @karpathy, aber bitte zeig mir, wo ich mehr lernen kann, falls es eine dumme Frage ist und ich missverstehe, wie LLMs funktionieren.