Os casos de uso de IA da Frontier provavelmente usam cerca de 100 vezes mais tokens do que os casos de uso da Frontier usavam há um ano. Já estamos vendo a explosão de agentes de codificação que fazem projetos muito mais complexos e de longa duração, o que já está consumindo uma quantidade absurda de capacidade de inferência. E isso representa uma pequena porcentagem do total do trabalho de conhecimento. Essa mesma arquitetura está prestes a surgir para o restante do trabalho do conhecimento, onde os agentes terão efetivamente seu próprio computador para trabalhar e a capacidade de escrever e rodar código para muitas tarefas, e vasculhar uma grande quantidade de dados para realizar seu trabalho. O uso de tokens desses agentes será insano. Está prestes a ficar muito interessante no mundo da inferência.