publicamente, a xAI não disse "treinámos um modelo de recompensa que mapeia rascunho de tweet -> gostos esperados." mas eles têm muito claramente os ingredientes brutos. A X diz que publicações públicas, além de metadados como engajamento/reposts, podem ser compartilhadas com a xAI para treinamento/ajuste fino. também diz que as suas interações, entradas, resultados e até mesmo feedback explícito sobre o Grok podem ser usados para melhorar os modelos. enquanto isso, o Grok tem acesso nativo a dados em tempo real da X, e a xAI já disse que utiliza RL em larga escala para raciocínio/uso de ferramentas. então, meu palpite é que não é realmente um adorável pequeno preditor de tweet->gostos, mas algo mais confuso e provavelmente mais poderoso, que acontece quando você pré-treina no discurso online, aprende com o que se espalha, coleta feedback explícito e implícito, e depois deixa as métricas do produto fechar o ciclo. não é um único modelo de recompensa. mais como condicionamento operante de pilha completa.