Templar SN3 ⚔️ gjorde precis något som ingen trodde var möjligt för ett år sedan. 72B-parametermodellen drevs igenom sin sista glödgningsfas från början till ände på decentraliserad Bittensor-infrastruktur, $TAO drivs. Detta är träning i gränsskala Llama 70B lev., helt utan tillstånd. Labb har förbrukat 🔥 miljarder för liknande körningar. Instrumentpanel: - Modellstorlek: 72B - Igång sedan 12 september - Slutlig glödgning: 143 miljarder tokens bearbetade - Genomströmning: 200 000 tps - BPBV 2.1.19 - Valideringsförlusten sjunker stadigt (bits/byte-kurva krossas) @tplr_ai byggde grunden. @gradients_ai polerad. Öppna vem som helst som går med, förbättras. Större modeller kommer snabbt. Decentraliserad superintelligensbyggnad. De flesta tror att stora modeller = stora labb. $TAO ändrar det. Öppna upp intelligens och se mänskligheten blomstra. @tplr_ai krossa det....