Los casos de uso de IA en la frontera probablemente utilizan 100 veces más tokens que los casos de uso en la frontera hace un año. Ya estamos viendo la explosión de agentes de codificación que realizan proyectos mucho más complejos y de mayor duración, lo que ya está consumiendo una cantidad insana de capacidad de inferencia. Y esto es un pequeño porcentaje del trabajo de conocimiento total. Esta misma arquitectura está a punto de llegar al resto del trabajo de conocimiento, donde los agentes efectivamente tendrán su propia computadora para trabajar y la capacidad de escribir y ejecutar código para muchas tareas, y revisar grandes cantidades de datos para hacer su trabajo. El uso de tokens para estos agentes será insano. Se va a poner muy interesante en el mundo de la inferencia.