Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 ÚLTIMA HORA: Pesquisadores da Meta mostraram a um modelo 2 milhões de horas de vídeo. Sem rótulos. Sem livro didático de física. Nenhuma supervisão.
Depois mostraram um trecho onde um objeto desaparece atrás de uma parede e nunca mais volta.
O modelo sinalizou como errado. 🤯
Aprendeu a permanência dos objetos. Consistência do formato. Dinâmica de colisão. Totalmente de assistir.
O que é mais surpreendente: até mesmo um modelo treinado com apenas uma semana de vídeo único alcançou desempenho acima do risco na detecção de violações de física. Isso não é um acaso. Isso é um princípio.
A principal percepção do artigo: isso só funciona quando o modelo prevê em um espaço de representação aprendido, não em pixels brutos. O modelo precisa construir um modelo de mundo interno, comprimido e abstrato, e prever contra isso. A previsão em espaço pixelado falha. LLMs multimodais que raciocinam por texto falham. Apenas a arquitetura que constrói representações abstratas enquanto prevê a ausência de entrada sensorial, algo próximo de como os neurocientistas descrevem a codificação preditiva, realmente adquire a intuição da física.
O que significa que o conhecimento central que os pesquisadores presumiam que deveria estar programado pode ser apenas observação em larga escala. Bebês aprendem a permanência dos objetos observando coisas. Acontece que o mesmo princípio vale aqui.
Agora aqui está a parte que ninguém está falando.
Se a observação sozinha ensina a um modelo as regras do mundo físico, o que acontece quando você aplica o mesmo princípio aos sistemas de produção?
Produção também tem física.
Não a gravidade. Mas regras igualmente consistentes: quais implantações causam incidentes às 3h da manhã, quais combinações de configuração interagem perigosamente, quais caminhos de código se degradam silenciosamente sob carga, quais mudanças de serviço causam falhas a dois saltos de distância. Esses padrões estão embutidos em milhares de trajetórias. Push de código, turnos de métricas, tickets de clientes, cronogramas de incidentes. Em grande parte despercebido. Certamente sem rótulos.
Ninguém escreve um runbook dizendo "se o serviço A for implantado com a flag X ativa e o serviço B estiver acima de 70% da CPU, a latência no serviço C degrada 40% em 6 minutos." Mas esse padrão existe. É repetível. E está nos seus dados de observabilidade agora, invisível porque ninguém construiu um modelo para encontrá-la.
Essa é a distância que @playerzeroai tenta diminuir. Não mais um corredor de testes. Não mais um limiar de alerta. Um modelo de mundo de produção que aprende quais coisas quebram a partir da observação acumulada, do mesmo jeito que o modelo do Meta aprendeu a gravidade. Ele não verifica a cobertura do seu teste. Ela prevê trajetórias de falha.
Uma semana de vídeo foi suficiente para aprender que objetos sólidos não atravessam paredes.
A questão é quanta observação de produção seu sistema precisa antes que um modelo comece a prever onde o seu vai quebrar em seguida.
...

Melhores
Classificação
Favoritos
