Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tvoje AI tiše zapomíná všechno, co jsi jí řekl.
Ne náhodně. Ne nahlas. Systematicky. Začněme rozhodnutími, která jsou nejdůležitější.
> Omezení, které jste nastavil před třemi měsíci "nikdy nepoužívat Redis, klient to vetoval po incidentu ve výrobě." Pryč. Omezení oblasti nasazení podle GDPR. Pryč. Limit opakování, který jste empiricky testoval po selhání kaskády. Pryč.
> Model ti to nikdy neřekl. Začal používat výchozí nastavení.
> Tomu se říká kontextová hnilba. A výzkumníci z Cambridge a nezávislých jen kvantifikovali, jak špatné to je.
> Každý produkční AI systém, který běží dostatečně dlouho, nakonec stlačí svůj kontext, aby uvolnil místo pro nové informace. Tato komprese je katastrofálně ztrátová. Testovali to přímo: 2 000 faktů zkomprimovaných na 36,7× nechalo 60 % znalostní základny trvale nenapravitelných. Ne halucinace. Není to špatně. Prostě pryč. Model upřímně hlásil, že už tyto informace nemá.
> Pak testovali něco horšího. Do 88kolové konverzace vložili 20 skutečných projektových omezení, takových omezení, která se přirozeně objevují v každém dlouhodobém projektu, a pak aplikovali kaskádovou kompresi přesně tak, jak to dělají produkční systémy. Po jednom kole: 91 % zachováno. Po dvou kolech: 62 %. Po třech kolech: 46 %.
> Model pracoval s plnou důvěrou po celou dobu. Generování výstupů, které porušovaly zapomenutá omezení. Žádný chybový signál. Žádné varování. Jen tichý návrat k rozumným výchozím hodnotám, které se ukázaly být špatné pro vaši konkrétní situaci.
> Testovali to na čtyřech modelech Frontier. Claude Sonet 4.5, Claude Sonet 4.6, Opus, GPT-5.4. Každý jeden se zhroutil pod tlakem. Tohle není problém modelu. Je to architektonické.
→ 60 % faktů trvale ztracených po jednom kompresním průchodu
→ 54 % omezení projektu zmizelo po třech kolech kaskádové komprese
→ GPT-5.4 klesl na 0 % přesnosti při pouhých 2× kompresi
→ Dokonce i Opus si ponechal pouze 5 % faktů při 20× kompresi
→ Paměť v kontextu stojí 14 201 dolarů ročně při 7 000 faktech oproti 56 dolarům ročně u alternativy
AI laboratoře to vědí. Jejich řešením jsou větší kontextová okna. Okno s 10milionovými žetony je větší kbelík. Je to pořád kýbl. Zhutnění je nevyhnutelné u každého dlouhodobě funícího systému. Velikost okna určuje jen to, kdy zapomínání začne, ne jestli k němu dojde.

Top
Hodnocení
Oblíbené
