Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🔥 Exactamente. Templar cambió la forma en que pienso sobre la infraestructura de IA.
No esperaba mucho de la IA descentralizada, pero ver a @tplr_ai entrenar un modelo de 72B en 1.1T de tokens a través de ~70 nodos sin permiso en Bittensor ( $TAO).
Eso por sí solo ya es inusual, pero lo que realmente cambió mi opinión es cómo lo hicieron funcionar.
- A esta escala, el entrenamiento está limitado por la coordinación. Normalmente estás empujando ~280GB de datos por cada paso de sincronización entre nodos, lo que hace que el entrenamiento descentralizado esté básicamente muerto al llegar.
- @tplr_ai comprimió eso a ~2.2GB y redujo masivamente la frecuencia de sincronización usando SparseLoCo. Cuando miro eso, veo que están eliminando el cuello de botella central que mató cada intento anterior 🤯.
Por eso creo que llamar a esto un momento DeepSeek no es en absoluto exagerado. DeepSeek mostró que los modelos pueden ser entrenados de manera más económica.
Templar muestra que pueden ser entrenados sin coordinación central en absoluto.
-> Esas son dos direcciones muy diferentes, y esta se siente estructuralmente más difícil de competir.
Otra señal que no ignoro: cuando personas como Jack Clark de Anthropic lo enmarcan públicamente como una infraestructura real:
- En mi experiencia, ese tipo de validación generalmente llega después de que algo ya funciona, no antes.
- Esto sigue siendo pre-entrenamiento. La verdadera ventaja en IA proviene del post-entrenamiento, RLHF, bucles de alineación, básicamente donde los modelos se vuelven realmente útiles.
Templar se está moviendo hacia allí a continuación con Grail, y para mí esa es la verdadera prueba. Si pueden descentralizar también esa capa, entonces ya no estamos hablando de computación descentralizada, están hablando de una línea de producción de IA completamente sin permiso.
Lo que hace que Templar se destaque para mí es el momento y la dirección que eligieron.
1/ Fueron tras la coordinación cuando toda la industria de IA está silenciosamente alcanzando límites de escalado.
- Esa es una apuesta muy diferente, y generalmente los que atacan las limitaciones, no las tendencias, son los que importan más tarde.
2/ Otro catalizador que veo es el diseño sin permiso.
- La mayoría de los sistemas de IA descentralizados aún restringen la participación de alguna manera, lo que mata los efectos de red temprano.
- Templar fue completamente abierto desde el principio, lo que significa que si este modelo funciona, no solo escala linealmente, sino que se compone con más contribuyentes, más experimentación, más casos extremos que se resuelven en paralelo.
Además, el hecho de que estén construyendo hacia el post-entrenamiento (capa de RL) me dice que entienden dónde se encuentra el verdadero valor.
El pre-entrenamiento recibe atención, pero el post-entrenamiento es donde los modelos se vuelven utilizables, pegajosos y monetizables. Si ejecutan aquí, comienzan a poseer parte de la capa de inteligencia en sí.
3/ Mi predicción basada en esto:
A corto plazo, la mayoría de las personas aún lo subestimarán porque la brecha de calidad del modelo frente a los laboratorios centralizados será el argumento fácil.
Pero con el tiempo, creo que Templar se convierte en:
- una capa de backend para el desarrollo de IA abierta.
- una red de coordinación para computación distribuida.
- y eventualmente un mercado para la refinación de inteligencia.
No dominante de la noche a la mañana, pero silenciosamente incrustado en todas partes.
Y si eso se desarrolla, la ventaja proviene de convertirse en el sistema en el que cualquiera puede construir cuando no quiere depender de @OpenAI en absoluto.


20 mar, 04:01
En el @theallinpod de esta semana, @chamath preguntó al CEO de @nvidia, Jensen Huang, sobre el entrenamiento de IA descentralizado, llamando a nuestra ejecución de Covenant-72B "un logro técnico bastante loco."
Una corrección: son 72 mil millones de parámetros, no cuatro. Entrenado sin permisos a través de más de 70 contribuyentes en internet común. El modelo más grande jamás preentrenado en infraestructura completamente descentralizada.
La respuesta de Jensen también merece ser escuchada.
@tplr_ai Los Chads proporcionan mucha información valiosa sobre el ecosistema de Bittensor: @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @andyyy @eliz883

Hace 18 horas
🔥 Exactamente. Templar cambió la forma en que pienso sobre la infraestructura de IA.
No esperaba mucho de la IA descentralizada, pero ver a @tplr_ai entrenar un modelo de 72B en 1.1T de tokens a través de ~70 nodos sin permiso en Bittensor ( $TAO).
Eso por sí solo ya es inusual, pero lo que realmente cambió mi opinión es cómo lo hicieron funcionar.
- A esta escala, el entrenamiento está limitado por la coordinación. Normalmente estás empujando ~280GB de datos por cada paso de sincronización entre nodos, lo que hace que el entrenamiento descentralizado esté básicamente muerto al llegar.
- @tplr_ai comprimió eso a ~2.2GB y redujo masivamente la frecuencia de sincronización usando SparseLoCo. Cuando miro eso, veo que están eliminando el cuello de botella central que mató cada intento anterior 🤯.
Por eso creo que llamar a esto un momento DeepSeek no es en absoluto exagerado. DeepSeek mostró que los modelos pueden ser entrenados de manera más económica.
Templar muestra que pueden ser entrenados sin coordinación central en absoluto.
-> Esas son dos direcciones muy diferentes, y esta se siente estructuralmente más difícil de competir.
Otra señal que no ignoro: cuando personas como Jack Clark de Anthropic lo enmarcan públicamente como una infraestructura real:
- En mi experiencia, ese tipo de validación generalmente llega después de que algo ya funciona, no antes.
- Esto sigue siendo pre-entrenamiento. La verdadera ventaja en IA proviene del post-entrenamiento, RLHF, bucles de alineación, básicamente donde los modelos se vuelven realmente útiles.
Templar se está moviendo hacia allí a continuación con Grail, y para mí esa es la verdadera prueba. Si pueden descentralizar también esa capa, entonces ya no estamos hablando de computación descentralizada, están hablando de una línea de producción de IA completamente sin permiso.
Lo que hace que Templar se destaque para mí es el momento y la dirección que eligieron.
1/ Fueron tras la coordinación cuando toda la industria de IA está silenciosamente alcanzando límites de escalado.
- Esa es una apuesta muy diferente, y generalmente los que atacan las limitaciones, no las tendencias, son los que importan más tarde.
2/ Otro catalizador que veo es el diseño sin permiso.
- La mayoría de los sistemas de IA descentralizados aún restringen la participación de alguna manera, lo que mata los efectos de red temprano.
- Templar fue completamente abierto desde el principio, lo que significa que si este modelo funciona, no solo escala linealmente, sino que se compone con más contribuyentes, más experimentación, más casos extremos que se resuelven en paralelo.
Además, el hecho de que estén construyendo hacia el post-entrenamiento (capa de RL) me dice que entienden dónde se encuentra el verdadero valor.
El pre-entrenamiento recibe atención, pero el post-entrenamiento es donde los modelos se vuelven utilizables, pegajosos y monetizables. Si ejecutan aquí, comienzan a poseer parte de la capa de inteligencia en sí.
3/ Mi predicción basada en esto:
A corto plazo, la mayoría de las personas aún lo subestimarán porque la brecha de calidad del modelo frente a los laboratorios centralizados será el argumento fácil.
Pero con el tiempo, creo que Templar se convierte en:
- una capa de backend para el desarrollo de IA abierta.
- una red de coordinación para computación distribuida.
- y eventualmente un mercado para la refinación de inteligencia.
No dominante de la noche a la mañana, pero silenciosamente incrustado en todas partes.
Y si eso se desarrolla, la ventaja proviene de convertirse en el sistema en el que cualquiera puede construir cuando no quiere depender de @OpenAI en absoluto.

@tplr_ai @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @eliz883 👍
3,35K
Parte superior
Clasificación
Favoritos