Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dit is altijd hoe ik aannam dat LLM's zouden functioneren, omdat dit is hoe ik (en vermoedelijk de meeste anderen) denken
Ik neem aan dat de basis eenheid van denken deze gestalt gedachtevector is, niet "woorden," en we hebben gewoon allemaal een zeer snelle manier ontwikkeld om deze naar woorden te vertalen, omdat woorden communicabeler zijn dan gedachtefragmenten
Dit was altijd mijn probleem met de discussie over "sommige mensen hebben geen interne monoloog!"
Het maakt gewoon geen zin dat woorden de basis eenheid zijn waar mensen in denken. Het is als 1000x sneller om in termen van beelden of deze gedachtefragmenten of wat dan ook te denken
Ik neem aan dat het gewoon lijkt alsof mensen in woorden denken omdat wanneer ze beschrijven wat ze denken aan anderen, ze de gedachtefragmenten naar woorden moeten vertalen - aangezien dat is hoe we communiceren - en dit proces converteert hun werkelijke gedachten in de vorm van een monoloog
Maar het is alleen logisch om in woorden te denken wanneer je een vorm van communicatie moet outputten. Anders is het niet erg efficiënt
En menselijke hersenen zijn ongelooflijk efficiënt

23 mrt, 00:54
🚨 BREAKING: Tencent heeft het "next-token" paradigma vernietigd.
Tencent en Tsinghua hebben CALM (Continuous Autoregressive Language Models) uitgebracht, en het verstoort volledig het next-token paradigma.
LLM's verspillen momenteel enorme hoeveelheden rekencapaciteit door discrete, enkele tokens te voorspellen via een enorme vocabulaire softmax-laag. Het is traag en schaalt slecht.
CALM omzeilt de vocabulaire volledig. Het gebruikt een high-fidelity autoencoder om tekstfragmenten te comprimeren tot een enkele continue vector met 99,9% reconstructie-nauwkeurigheid.
Het model voorspelt nu de "volgende vector" in een continue ruimte.
De cijfers zijn eigenlijk krankzinnig:
- Elke generatieve stap heeft nu 4× de semantische bandbreedte.
- De trainingsrekenkracht is met 44% verminderd.
- De softmax-flessenhals is volledig verwijderd.
We kijken letterlijk toe hoe taalmodellen evolueren van het typen van discrete symbolen naar het streamen van continue gedachten.
Dit verandert de hele koers van AI.

Ik commentaar geef alleen op het mechanisme dat hier beschreven is, niet op de daadwerkelijke technologie van Tencent of wat dan ook.
Ik neem aan dat het overgaan van vectoren naar tokens vrij traag/on efficiënt zal zijn voor een lange tijd en ik betwijfel of dit AI REVOLUTIONAIRE dingen doet of iets dergelijks op de korte termijn.
302
Boven
Positie
Favorieten
