Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🔥 Exakt. Templar förändrade hur jag ser kring AI-infrastruktur.
Jag förväntade mig inte mycket av decentraliserad AI, men att se @tplr_ai träna en 72B-modell på 1.1T-tokens över ~70 tillståndsfria noder på Bittensor ($TAO).
Det är redan ovanligt, men det som verkligen fick mig att ändra mig var hur de fick det att fungera.
- På denna skala begränsas utbildningen av samordning. Normalt skickar du ~280 GB data per synkroniseringssteg mellan noder, vilket gör decentraliserad träning i princip död vid ankomst.
- @tplr_ai komprimerade detta till ~2,2 GB och minskade synkfrekvensen kraftigt med hjälp av SparseLoCo. När jag tittar på det ser jag att de tar bort kärnflaskhalsen som dödade varje tidigare försök 🤯.
Det är därför jag tycker att det inte är överdrivet att kalla detta ett DeepSeek-ögonblick. DeepSeek visade att modeller kan tränas billigare.
Templar visar att de kan tränas utan central samordning alls.
-> Det är två väldigt olika riktningar, och den här känns strukturellt svårare att konkurrera med.
En annan signal jag inte ignorerar: när folk som Anthropics Jack Clark offentligt ramar in det som verklig infrastruktur:
- Enligt min erfarenhet kommer den typen av bekräftelse oftast efter att något redan fungerat, inte innan.
- Det här är fortfarande förträning. Den verkliga fördelen i AI kommer från post-träning, RLHF, alignment-loopar, där modeller faktiskt blir användbara.
Templar flyttar dit nästa gång med Grail, och för mig är det det verkliga testet. Om de kan decentralisera det lagret också, pratar vi inte längre om decentraliserad beräkning, utan om en helt tillståndsfri AI-produktionspipeline.
Det som gör Templar särskilt intressant för mig är tidpunkten och riktningen de valde.
1/ De gick efter samordning när hela AI-industrin tyst når skalningsgränser.
- Det är ett helt annat spel, och oftast är det de som angriper begränsningar, inte trender, som spelar roll senare.
2/ En annan katalysator jag ser är den tillståndslösa designen.
- De flesta decentraliserade AI-system grindar fortfarande till deltagande på något sätt, vilket dödar nätverkseffekter tidigt.
- Templar blev helt öppet från början, vilket betyder att om denna modell fungerar, skalar den inte bara linjärt, utan bygger på fler bidragsgivare, mer experiment, fler gränsfall som löses parallellt.
Dessutom visar det faktum att de bygger mot post-training (RL-lagret) att de förstår var verkligt värde ligger.
Förträning får uppmärksamhet, men efterträning är där modeller blir användbara, klibbiga och intrigaliserbara. Om de genomför här börjar de äga en del av underrättelselagret självt.
3/ Min förutsägelse baserad på detta:
På kort sikt kommer de flesta ändå att underskatta det eftersom skillnaden mellan modellkvalitet och centraliserade laboratorier är det enkla argumentet.
Men med tiden tror jag att Templar blir:
- ett backend-lager för öppen AI-utveckling.
- ett samordningsnätverk för distribuerad beräkning.
- och så småningom en marknad för intelligensförfining.
Inte dominerande över en natt, utan tyst inbäddad överallt.
Och om det blir så kommer fördelen av att bli det system som vem som helst kan bygga vidare på när de inte vill förlita sig på @OpenAI alls.


23 timmar sedan
Den här veckans @theallinpod frågade @chamath @nvidia VD Jensen Huang om decentraliserad AI-träning och kallade vår Covenant-72B-körning "en ganska galen teknisk prestation."
En rättelse: det är 72 miljarder parametrar, inte fyra. Utbildad utan tillstånd över 70+ bidragsgivare på vanlig internet. Den största modellen någonsin förtränad på helt decentraliserad infrastruktur.
Jensens svar är också värt att höra.
@tplr_ai Chads ger mycket värdefull information om Bittensor-ekosystemet: @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @andyyy @eliz883

15 timmar sedan
🔥 Exakt. Templar förändrade hur jag ser kring AI-infrastruktur.
Jag förväntade mig inte mycket av decentraliserad AI, men att se @tplr_ai träna en 72B-modell på 1.1T-tokens över ~70 tillståndsfria noder på Bittensor ($TAO).
Det är redan ovanligt, men det som verkligen fick mig att ändra mig var hur de fick det att fungera.
- På denna skala begränsas utbildningen av samordning. Normalt skickar du ~280 GB data per synkroniseringssteg mellan noder, vilket gör decentraliserad träning i princip död vid ankomst.
- @tplr_ai komprimerade detta till ~2,2 GB och minskade synkfrekvensen kraftigt med hjälp av SparseLoCo. När jag tittar på det ser jag att de tar bort kärnflaskhalsen som dödade varje tidigare försök 🤯.
Det är därför jag tycker att det inte är överdrivet att kalla detta ett DeepSeek-ögonblick. DeepSeek visade att modeller kan tränas billigare.
Templar visar att de kan tränas utan central samordning alls.
-> Det är två väldigt olika riktningar, och den här känns strukturellt svårare att konkurrera med.
En annan signal jag inte ignorerar: när folk som Anthropics Jack Clark offentligt ramar in det som verklig infrastruktur:
- Enligt min erfarenhet kommer den typen av bekräftelse oftast efter att något redan fungerat, inte innan.
- Det här är fortfarande förträning. Den verkliga fördelen i AI kommer från post-träning, RLHF, alignment-loopar, där modeller faktiskt blir användbara.
Templar flyttar dit nästa gång med Grail, och för mig är det det verkliga testet. Om de kan decentralisera det lagret också, pratar vi inte längre om decentraliserad beräkning, utan om en helt tillståndsfri AI-produktionspipeline.
Det som gör Templar särskilt intressant för mig är tidpunkten och riktningen de valde.
1/ De gick efter samordning när hela AI-industrin tyst når skalningsgränser.
- Det är ett helt annat spel, och oftast är det de som angriper begränsningar, inte trender, som spelar roll senare.
2/ En annan katalysator jag ser är den tillståndslösa designen.
- De flesta decentraliserade AI-system grindar fortfarande till deltagande på något sätt, vilket dödar nätverkseffekter tidigt.
- Templar blev helt öppet från början, vilket betyder att om denna modell fungerar, skalar den inte bara linjärt, utan bygger på fler bidragsgivare, mer experiment, fler gränsfall som löses parallellt.
Dessutom visar det faktum att de bygger mot post-training (RL-lagret) att de förstår var verkligt värde ligger.
Förträning får uppmärksamhet, men efterträning är där modeller blir användbara, klibbiga och intrigaliserbara. Om de genomför här börjar de äga en del av underrättelselagret självt.
3/ Min förutsägelse baserad på detta:
På kort sikt kommer de flesta ändå att underskatta det eftersom skillnaden mellan modellkvalitet och centraliserade laboratorier är det enkla argumentet.
Men med tiden tror jag att Templar blir:
- ett backend-lager för öppen AI-utveckling.
- ett samordningsnätverk för distribuerad beräkning.
- och så småningom en marknad för intelligensförfining.
Inte dominerande över en natt, utan tyst inbäddad överallt.
Och om det blir så kommer fördelen av att bli det system som vem som helst kan bygga vidare på när de inte vill förlita sig på @OpenAI alls.

@tplr_ai @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @eliz883 👍
3,33K
Topp
Rankning
Favoriter