Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 ÚLTIMA HORA: Investigadores de Meta mostraron a un modelo 2 millones de horas de vídeo. Sin etiquetas. No hay libro de texto de física. Sin ninguna supervisión.
Luego le mostraron un clip donde un objeto desaparece detrás de una pared y nunca regresa.
El modelo lo marcó como incorrecto. 🤯
Había aprendido la permanencia de objetos. Consistencia de la forma. Dinámica de colisiones. Completamente por observar.
Lo que resulta aún más sorprendente: incluso un modelo entrenado con solo una semana de vídeo único logró un rendimiento superior al azar en la detección de violaciones de física. Eso no es casualidad. Eso es un principio.
La idea clave del artículo es que esto solo funciona cuando el modelo predice en un espacio de representación aprendido, no en píxeles en bruto. El modelo tiene que construir un modelo de mundo interno, comprimido y abstracto, y predecir contra él. La predicción en espacio píxel falla. Los LLM multimodales que razonan a través del texto fracasan. Solo la arquitectura que construye representaciones abstractas mientras predice la ausencia de estímulo sensorial, algo parecido a cómo los neurocientíficos describen la codificación predictiva, adquiere realmente la intuición física.
Lo que significa que el conocimiento central que los investigadores asumían que debía estar programado puede ser simplemente observación a gran escala. Los bebés aprenden la permanencia de los objetos observando cosas. Resulta que aquí se cumple el mismo principio.
Ahora viene la parte de la que nadie habla.
Si la observación por sí sola enseña a un modelo las reglas del mundo físico, ¿qué ocurre cuando aplicas el mismo principio a los sistemas de producción?
La producción también tiene física.
No la gravedad. Pero reglas igual de consistentes: qué despliegue causa incidentes a las 3 de la madrugada, qué combinaciones de configuración interactúan peligrosamente, qué rutas de código se degradan silenciosamente bajo carga, qué cambios de servicio causan fallos a dos saltos de distancia. Estos patrones están incrustados en miles de trayectorias. Push de código, turnos de métricas, tickets de clientes, cronologías de incidentes. En gran parte sin ser observado. Desde luego, sin etiquetar.
Nadie escribe un runbook que diga "si el servicio A se despliega con la bandera X activa y el servicio B está por encima del 70% de la CPU, la latencia en el servicio C se degrada un 40% en 6 minutos." Pero ese patrón existe. Es repetible. Y ahora mismo está en tus datos de observabilidad, invisible porque nadie ha construido un modelo para encontrarlo.
Esa es la brecha que @playerzeroai intenta cerrar. No otro corredor de pruebas. No otro umbral de alerta. Un modelo de mundo de producción que aprende qué cosas se rompen a partir de la observación acumulada, igual que el modelo de Meta aprendió la gravedad. No revisa la cobertura de tus pruebas. Predice trayectorias de fallo.
Una semana de vídeo fue suficiente para aprender que los objetos sólidos no atraviesan paredes.
La cuestión es cuánta observación de producción necesita tu sistema antes de que un modelo empiece a predecir dónde se romperá el tuyo a continuación.
...

Populares
Ranking
Favoritas
