Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NOTÍCIA DE ÚLTIMA HORA: Pesquisadores da Meta mostraram a um modelo 2 milhões de horas de vídeo. Sem rótulos. Sem livro de física. Sem supervisão alguma.
Depois, mostraram-lhe um clipe onde um objeto desaparece atrás de uma parede e nunca mais volta.
O modelo sinalizou isso como errado. 🤯
Ele aprendeu a permanência do objeto. Consistência de forma. Dinâmica de colisão. Totalmente apenas assistindo.
O que é mais surpreendente: até mesmo um modelo treinado com apenas uma semana de vídeo único alcançou um desempenho acima da média na detecção de violações da física. Isso não é um acaso. É um princípio.
A principal percepção do artigo: isso só funciona quando o modelo prevê em um espaço de representação aprendido, não em pixels brutos. O modelo tem que construir um modelo interno do mundo, comprimido e abstrato, e prever com base nisso. A previsão no espaço de pixels falha. LLMs multimodais que raciocinam através de texto falham. Apenas a arquitetura que constrói representações abstratas enquanto prevê a entrada sensorial ausente, algo próximo ao que os neurocientistas descrevem como codificação preditiva, realmente adquire intuição sobre a física.
O que significa que o conhecimento central que os pesquisadores assumiam que tinha que ser programado pode ser apenas observação em escala. Bebês aprendem a permanência do objeto observando as coisas. Acontece que o mesmo princípio se aplica aqui.
Agora, aqui está a parte que ninguém está comentando.
Se a observação sozinha ensina a um modelo as regras do mundo físico, o que acontece quando você aplica o mesmo princípio a sistemas de produção?
A produção também tem física.
Não gravidade. Mas regras tão consistentes: quais implantações causam incidentes às 3 da manhã, quais combinações de configuração interagem de forma perigosa, quais caminhos de código se degradam silenciosamente sob carga, quais mudanças de serviço causam falhas a duas etapas de distância. Esses padrões estão embutidos em milhares de trajetórias. Push de código, mudanças de métricas, tickets de clientes, cronogramas de incidentes. Largamente não observados. Certamente não rotulados.
Ninguém escreve um runbook que diz "se o serviço A é implantado com a flag X ativa e o serviço B está acima de 70% de CPU, a latência no serviço C se degrada 40% em 6 minutos." Mas esse padrão existe. É repetível. E está sentado nos seus dados de observabilidade agora, invisível porque ninguém construiu um modelo para encontrá-lo.
Essa é a lacuna que @playerzeroai está tentando fechar. Não mais um executor de testes. Não mais um limite de alerta. Um modelo de mundo de produção que aprende quais coisas quebram a partir da observação acumulada, da mesma forma que o modelo da Meta aprendeu a gravidade. Ele não verifica sua cobertura de testes. Ele prevê trajetórias de falha.
Uma semana de vídeo foi suficiente para aprender que objetos sólidos não passam através de paredes.
A questão é quanta observação de produção seu sistema precisa antes que um modelo comece a prever onde o seu vai quebrar a seguir.
...

Top
Classificação
Favoritos
