publicamente, a XAI não disse "treinamos um modelo de recompensas que mapeia o rascunho do tweet > curtidas esperadas." Mas eles claramente têm os ingredientes brutos. X diz que postagens públicas, além de metadados como engajamento/repostagens, podem ser compartilhadas com a xAI para treinamento/ajuste fino. também diz que suas interações, entradas, resultados e até feedback explícito no Grok podem ser usados para melhorar os modelos. enquanto isso, o Grok tem acesso nativo a dados X em tempo real, e a xAI já disse que usa RL em grande escala para raciocínio/uso de ferramentas. Então, meu palpite é que não é realmente um preditor fofo de tweets > curtidos, mas algo mais bagunçado e provavelmente mais poderoso, que acontece quando você pré-treina no discurso online, aprende com o que se espalha, coleta feedback explícito e implícito e depois deixa as métricas do produto fecharem o ciclo. Nem um único modelo de recompensa. Mais parecido com condicionamento operante full-stack.