Cuando los medicamentos GLP-1 demostraron ser efectivos para suprimir el apetito, se vio hablar de alimentos que "aumentan naturalmente el GLP-1". Pero esto pasa por alto el mecanismo por completo. Las dosis terapéuticas de agonistas de GLP-1 operan a unos 6.000 veces los niveles endógenos máximos. GLP-1 no es "la hormona del apetito". Es una señal entre muchas que modulan el hambre. La cafeína también suprime el apetito a través de las vías dopaminérgica y adrenérgica, pero eso no significa que la cafeína sea la hormona del apetito. Lo que hace tan potente al GLP-1 farmacológico no es que encontrara la palanca adecuada. Es que tiró de una palanca con tanta fuerza que abrumó a todas las demás. De manera similar, la generación predictiva de tokens, por supuesto, no es en absoluto en lo que se basa toda la inteligencia, pero sí sabemos que es uno de muchos factores. Pero GLP-1 nos enseñó algo: si amplificas un solo mecanismo contribuyente en varios órdenes de magnitud, puede lograr un control funcional casi total sobre el sistema más grande en el que participa. No necesitas replicar toda la red de apetito, solo necesitas escalar un componente mucho más allá de su rango natural de funcionamiento. Así que la pregunta es: ¿es la generación predictiva de tokens para inteligencia lo que GLP-1 es para el apetito? ¿Un mecanismo que, a su escala natural, es solo un contribuyente pero a una escala de 10.000 veces mayor, se vuelve funcionalmente suficiente? No porque la predicción sea inteligencia, sino porque, a suficiente magnitud, imita lo suficiente de lo que hace la inteligencia como para volverse operativamente indistinguible de ella.