Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 ÚLTIMA HORA: Investigadores de Meta mostraron a un modelo 2 millones de horas de video. Sin etiquetas. Sin libro de texto de física. Sin supervisión alguna.
Luego le mostraron un clip donde un objeto desaparece detrás de una pared y nunca vuelve.
El modelo lo marcó como incorrecto. 🤯
Había aprendido la permanencia del objeto. La consistencia de la forma. La dinámica de colisiones. Totalmente observando.
Lo que es más sorprendente: incluso un modelo entrenado con solo una semana de video único logró un rendimiento superior al azar en la detección de violaciones de la física. No es una casualidad. Es un principio.
La clave del artículo: esto solo funciona cuando el modelo predice en un espacio de representación aprendido, no en píxeles en bruto. El modelo tiene que construir un modelo interno del mundo, comprimido y abstracto, y predecir en base a eso. La predicción en el espacio de píxeles falla. Los LLM multimodales que razonan a través del texto fallan. Solo la arquitectura que construye representaciones abstractas mientras predice la entrada sensorial faltante, algo cercano a cómo los neurocientíficos describen la codificación predictiva, adquiere realmente la intuición física.
Lo que significa que el conocimiento central que los investigadores asumían que tenía que estar cableado puede ser solo observación a gran escala. Los bebés aprenden la permanencia del objeto observando cosas. Resulta que el mismo principio se aplica aquí.
Ahora aquí está la parte de la que nadie está hablando.
Si la observación por sí sola enseña a un modelo las reglas del mundo físico, ¿qué pasa cuando aplicas el mismo principio a los sistemas de producción?
La producción también tiene física.
No gravedad. Pero reglas igual de consistentes: qué despliegues causan incidentes a las 3 a.m., qué combinaciones de configuraciones interactúan de manera peligrosa, qué caminos de código se degradan silenciosamente bajo carga, qué cambios de servicio causan fallos a dos saltos de distancia. Estos patrones están incrustados en miles de trayectorias. Despliegues de código, cambios de métricas, tickets de clientes, cronologías de incidentes. En gran medida no observados. Ciertamente no etiquetados.
Nadie escribe un manual de operaciones que diga "si el servicio A se despliega con la bandera X activa y el servicio B está por encima del 70% de CPU, la latencia en el servicio C se degrada un 40% en 6 minutos." Pero ese patrón existe. Es repetible. Y está en tus datos de observabilidad ahora mismo, invisible porque nadie ha construido un modelo para encontrarlo.
Esa es la brecha que @playerzeroai está tratando de cerrar. No otro ejecutor de pruebas. No otro umbral de alerta. Un modelo del mundo de producción que aprende qué cosas se rompen a partir de la observación acumulada, de la misma manera que el modelo de Meta aprendió la gravedad. No verifica tu cobertura de pruebas. Predice trayectorias de fallos.
Una semana de video fue suficiente para aprender que los objetos sólidos no atraviesan paredes.
La pregunta es cuánta observación de producción necesita tu sistema antes de que un modelo comience a predecir dónde se romperá el tuyo a continuación.
...

Parte superior
Clasificación
Favoritos
