Quería hacer algunas aclaraciones, que creemos que estaban claras en nuestro artículo pero no en mi publicación original (reanalizar @METR_Evals datos). Nuestra contribución es plantear el progreso como un producto multiplicativo de sigmoides en torno a diferentes innovaciones. Dado los datos del METR, los dividimos en mejoras en las capacidades base (tamaño de datos/modelo) y razonamiento. Mostramos que este producto proporciona un ajuste *en muestra* similar a los pequeños conjuntos de datos que observamos como crecimiento exponencial. ¡Sin embargo, las implicaciones son muy diferentes! Bajo nuestro modelo, necesitaríamos innovaciones continuas (similares al razonamiento) para ver un progreso exponencial continuo. Esto no quiere decir que descartemos el progreso exponencial, ni que nuestro producto de sigmoides sea el modelo adecuado. Simplemente se trata de decir que hay pocos puntos y múltiples modelos subyacentes posibles con implicaciones muy diferentes. Nuestro producto sigmoid fit en realidad encaja muy bien cuando sostienes GPT 5.2 y/o Gemini 3 pro. Quedamos peor si además ofrecemos Claude Opus 4.5, pero sigue siendo plausible. Nuestro objetivo no es discutir sobre métricas fuera de la normativa en unos pocos datos, sino señalar que las previsiones existentes son frágiles y no modelan la sucesión de diferentes innovaciones. (Hay un par de otros ajustes circulando por X, pero no parece que estén usando nuestro producto propuesto sigmoide, así que no puedo decir qué está pasando ahí...) Pido disculpas por mi publicación anterior poco matizada; ¡esperamos que la gente lea el artículo!