Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Din AI har tyst glömt allt du berättade för den.
Inte slumpmässigt. Inte högljutt. Systematiskt. Börja med de beslut som betyder mest.
> Begränsningen du satte för tre månader sedan "använd aldrig Redis, klienten lade in veto efter en produktionsincident." Borta. GDPR:s begränsning för distributionsregioner. Borta. Omprövningsgränsen testade du empiriskt efter kaskadfelet. Borta.
> Modellen berättade aldrig för dig. Den började precis använda standardinställningar.
> Detta kallas kontextröta. Och Cambridge och oberoende forskare kvantifierade precis exakt hur illa det är.
> Varje produktions-AI-system som körs tillräckligt länge kommer så småningom att komprimera sitt sammanhang för att ge plats åt ny information. Den kompressionen är katastrofalt förlustgivande. De testade det direkt: 2 000 fakta komprimerade till 36,7× lämnade 60 % av kunskapsbasen permanent oåterkallelig. Inte hallucinerat. Inte fel. Bara borta. Modellen rapporterade ärligt talat att den inte längre hade informationen.
> Sedan testade de något värre. De bäddade in 20 verkliga projektbegränsningar i en konversation på 88 varv – den typ av begränsningar som uppstår naturligt i alla långvariga projekt – och tillämpade sedan kaskadkomprimering precis som produktionssystem gör. Efter en runda: 91 % bevarade. Efter två omgångar: 62%. Efter tre omgångar: 46%.
> Modellen fortsatte att arbeta med full självsäkerhet hela tiden. Genererade utdata som bröt mot de bortglömda begränsningarna. Ingen felsignal. Ingen förvarning. Bara tyst återgång till rimliga standardinställningar som råkade vara fel för just din situation.
> De testade detta på fyra frontier-modeller. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Varenda en kollapsade under kompression. Det här är inte ett modell-problem. Det är arkitektoniskt.
→ 60 % av fakta förlorade permanent efter ett enkelt kompressionspass
→ 54 % av projektbegränsningarna borta efter tre omgångar av kaskadkomprimering
→ GPT-5.4 sjönk till 0 % noggrannhet vid bara 2 × kompression
→ Even Opus behöll endast 5 % av fakta vid 20 × komprimering
→ In-context minne kostar 14 201 dollar/år med 7 000 fakta jämfört med 56 dollar per år för alternativet
AI-labben vet detta. Deras lösning är större kontextfönster. Ett 10M-tokenfönster är en större hink. Det är fortfarande en hink. Kompaktering är oundviklig för alla långvariga system. Fönsterstorleken avgör bara när glömskan börjar, inte om det sker.

Topp
Rankning
Favoriter
