Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🔥 Precies. Templar heeft mijn kijk op AI-infrastructuur veranderd.
Ik verwachtte niet veel van gedecentraliseerde AI, maar het zien van @tplr_ai die een 72B-model traint op 1.1T tokens over ~70 permissieloze nodes op Bittensor ( $TAO).
Dat alleen al is al ongebruikelijk, maar wat mijn mening echt heeft veranderd is hoe ze het voor elkaar hebben gekregen.
- Op deze schaal wordt training beperkt door coördinatie. Normaal gesproken duw je ~280GB aan data per synchronisatiestap tussen nodes, wat gedecentraliseerde training praktisch dood bij aankomst maakt.
- @tplr_ai heeft dat teruggebracht tot ~2.2GB en de synchronisatiefrequentie enorm verminderd met behulp van SparseLoCo. Als ik daar naar kijk, zie ik dat ze de kernflessenhals verwijderen die elke eerdere poging heeft gedood 🤯.
Daarom denk ik dat het noemen van dit een DeepSeek-moment eigenlijk niet overdreven is. DeepSeek toonde aan dat modellen goedkoper kunnen worden getraind.
Templar toont aan dat ze zonder centrale coördinatie kunnen worden getraind.
-> Dat zijn twee heel verschillende richtingen, en deze voelt structureel moeilijker om mee te concurreren.
Een ander signaal dat ik niet negeer: wanneer mensen zoals Jack Clark van Anthropic het publiekelijk kaderen als echte infrastructuur:
- Uit mijn ervaring komt die soort validatie meestal nadat iets al werkt, niet ervoor.
- Dit is nog steeds pre-training. Het echte voordeel in AI komt van post-training, RLHF, afstemmingslussen, basically waar modellen daadwerkelijk nuttig worden.
Templar beweegt daar nu naartoe met Grail, en voor mij is dat de echte test. Als ze dat laag ook kunnen decentraliseren, dan hebben we het niet meer over gedecentraliseerde rekencapaciteit, maar over een volledig permissieloze AI-productie-pijplijn.
Wat Templar voor mij onderscheidt, is de timing en richting die ze hebben gekozen.
1/ Ze gingen achter coördinatie aan toen de hele AI-industrie stilletjes de schaalgrenzen aan het bereiken is.
- Dat is een heel andere weddenschap, en meestal zijn degenen die beperkingen aanvallen, niet trends, degenen die later belangrijk zijn.
2/ Een andere katalysator die ik zie, is het permissieloze ontwerp.
- De meeste gedecentraliseerde AI-systemen beperken nog steeds de deelname op de een of andere manier, wat de netwerkeffecten vroeg doodt.
- Templar ging vanaf het begin volledig open, wat betekent dat als dit model werkt, het niet alleen lineair schaalt, maar componeert met meer bijdragers, meer experimenten, meer randgevallen die parallel worden opgelost.
Ook het feit dat ze bouwen naar post-training (RL-laag) vertelt me dat ze begrijpen waar de echte waarde zit.
Pre-training krijgt aandacht, maar post-training is waar modellen bruikbaar, plakkerig en monetiseerbaar worden. Als ze hier goed presteren, beginnen ze een deel van de intelligentielaag zelf te bezitten.
3/ Mijn voorspelling op basis hiervan:
Op de korte termijn zullen de meeste mensen het nog steeds onderschatten omdat de kwaliteitskloof van modellen ten opzichte van gecentraliseerde laboratoria het gemakkelijke argument zal zijn.
Maar na verloop van tijd denk ik dat Templar wordt:
- een backend-laag voor open AI-ontwikkeling.
- een coördinatienetwerk voor gedistribueerde rekencapaciteit.
- en uiteindelijk een marktplaats voor intelligentie verfijning.
Niet dominant van de ene op de andere dag, maar stilletjes overal ingebed.
En als dat zich ontvouwt, komt de upside van het worden van het systeem waarop iedereen kan bouwen wanneer ze niet op @OpenAI willen vertrouwen.


23 uur geleden
Op de @theallinpod deze week vroeg @chamath aan @nvidia CEO Jensen Huang over gedecentraliseerde AI-training, waarbij hij onze Covenant-72B-run "een behoorlijk gekke technische prestatie" noemde.
Een correctie: het zijn 72 miljard parameters, niet vier. Vrijgegeven zonder toestemming door meer dan 70 bijdragers op gewone internetverbindingen. Het grootste model ooit voorgetraind op volledig gedecentraliseerde infrastructuur.
Jensen's antwoord is ook het horen waard.
@tplr_ai Chads bieden veel waardevolle informatie over het Bittensor-ecosysteem: @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @andyyy @eliz883

15 uur geleden
🔥 Precies. Templar heeft mijn kijk op AI-infrastructuur veranderd.
Ik verwachtte niet veel van gedecentraliseerde AI, maar het zien van @tplr_ai die een 72B-model traint op 1.1T tokens over ~70 permissieloze nodes op Bittensor ( $TAO).
Dat alleen al is al ongebruikelijk, maar wat mijn mening echt heeft veranderd is hoe ze het voor elkaar hebben gekregen.
- Op deze schaal wordt training beperkt door coördinatie. Normaal gesproken duw je ~280GB aan data per synchronisatiestap tussen nodes, wat gedecentraliseerde training praktisch dood bij aankomst maakt.
- @tplr_ai heeft dat teruggebracht tot ~2.2GB en de synchronisatiefrequentie enorm verminderd met behulp van SparseLoCo. Als ik daar naar kijk, zie ik dat ze de kernflessenhals verwijderen die elke eerdere poging heeft gedood 🤯.
Daarom denk ik dat het noemen van dit een DeepSeek-moment eigenlijk niet overdreven is. DeepSeek toonde aan dat modellen goedkoper kunnen worden getraind.
Templar toont aan dat ze zonder centrale coördinatie kunnen worden getraind.
-> Dat zijn twee heel verschillende richtingen, en deze voelt structureel moeilijker om mee te concurreren.
Een ander signaal dat ik niet negeer: wanneer mensen zoals Jack Clark van Anthropic het publiekelijk kaderen als echte infrastructuur:
- Uit mijn ervaring komt die soort validatie meestal nadat iets al werkt, niet ervoor.
- Dit is nog steeds pre-training. Het echte voordeel in AI komt van post-training, RLHF, afstemmingslussen, basically waar modellen daadwerkelijk nuttig worden.
Templar beweegt daar nu naartoe met Grail, en voor mij is dat de echte test. Als ze dat laag ook kunnen decentraliseren, dan hebben we het niet meer over gedecentraliseerde rekencapaciteit, maar over een volledig permissieloze AI-productie-pijplijn.
Wat Templar voor mij onderscheidt, is de timing en richting die ze hebben gekozen.
1/ Ze gingen achter coördinatie aan toen de hele AI-industrie stilletjes de schaalgrenzen aan het bereiken is.
- Dat is een heel andere weddenschap, en meestal zijn degenen die beperkingen aanvallen, niet trends, degenen die later belangrijk zijn.
2/ Een andere katalysator die ik zie, is het permissieloze ontwerp.
- De meeste gedecentraliseerde AI-systemen beperken nog steeds de deelname op de een of andere manier, wat de netwerkeffecten vroeg doodt.
- Templar ging vanaf het begin volledig open, wat betekent dat als dit model werkt, het niet alleen lineair schaalt, maar componeert met meer bijdragers, meer experimenten, meer randgevallen die parallel worden opgelost.
Ook het feit dat ze bouwen naar post-training (RL-laag) vertelt me dat ze begrijpen waar de echte waarde zit.
Pre-training krijgt aandacht, maar post-training is waar modellen bruikbaar, plakkerig en monetiseerbaar worden. Als ze hier goed presteren, beginnen ze een deel van de intelligentielaag zelf te bezitten.
3/ Mijn voorspelling op basis hiervan:
Op de korte termijn zullen de meeste mensen het nog steeds onderschatten omdat de kwaliteitskloof van modellen ten opzichte van gecentraliseerde laboratoria het gemakkelijke argument zal zijn.
Maar na verloop van tijd denk ik dat Templar wordt:
- een backend-laag voor open AI-ontwikkeling.
- een coördinatienetwerk voor gedistribueerde rekencapaciteit.
- en uiteindelijk een marktplaats voor intelligentie verfijning.
Niet dominant van de ene op de andere dag, maar stilletjes overal ingebed.
En als dat zich ontvouwt, komt de upside van het worden van het systeem waarop iedereen kan bouwen wanneer ze niet op @OpenAI willen vertrouwen.

@tplr_ai @AlgodTrading @CryptoWizardd @CryptoGodJohn @QuintenFrancois @Tanaka_L2 @Eli5defi @andyyy @MilkRoad @eliz883 👍
3,33K
Boven
Positie
Favorieten