Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Säg hej till Exclusive Self Attention (XSA), en (nästan) gratis förbättring av Transformers för LM.
Observation: för y = attn(q, k, v) tenderar yi och vi att ha mycket hög cosinuslikhet
Fix: exkludera vi från yi via zi = yi - (yiTvi)vi/‖vi‖²
Resultat: bättre träning/valförlust över modellstorlekar; ökar vinsterna i takt med att sekvenslängden ökar.
Se mer:

Topp
Rankning
Favoriter
